HomeSort by: relevance | last modified time | path
    Searched defs:szind (Results 1 - 25 of 32) sorted by relevancy

1 2

  /src/external/bsd/jemalloc/dist/src/
inspect.c 51 const szind_t szind = edata_szind_get(edata); local
52 *nregs = bin_infos[szind].nregs;
60 bin_t *bin = arena_get_bin(arena, szind, binshard);
large.c 91 szind_t szind = sz_size2index(usize); local
95 szind, zero, &deferred_work_generated);
prof.c 111 szind_t szind = sz_size2index(usize); local
124 size_t shifted_unbiased_cnt = prof_shifted_unbiased_cnt[szind];
125 size_t unbiased_bytes = prof_unbiased_sz[szind];
145 prof_stats_inc(tsd, szind, size);
157 szind_t szind = sz_size2index(usize); local
169 tctx->cnts.curobjs_shifted_unbiased -= prof_shifted_unbiased_cnt[szind];
171 tctx->cnts.curbytes_unbiased -= prof_unbiased_sz[szind];
178 prof_stats_dec(tsd, szind, prof_info->alloc_size);
  /src/external/bsd/jemalloc.old/dist/src/
inspect.c 51 const szind_t szind = edata_szind_get(edata); local
52 *nregs = bin_infos[szind].nregs;
60 bin_t *bin = arena_get_bin(arena, szind, binshard);
large.c 91 szind_t szind = sz_size2index(usize); local
95 szind, zero, &deferred_work_generated);
  /src/external/bsd/jemalloc/dist/include/jemalloc/internal/
arena_inlines_b.h 177 assert(alloc_ctx.szind != SC_NSIZES);
179 return sz_index2size(alloc_ctx.szind);
208 assert(full_alloc_ctx.szind != SC_NSIZES);
210 return sz_index2size(full_alloc_ctx.szind);
214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) {
232 size_t input_size = sz_index2size(szind);
243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) {
244 if (config_prof && unlikely(szind < SC_NBINS)) {
249 if (large_dalloc_safety_checks(edata, ptr, szind)) {
267 assert(alloc_ctx.szind == edata_szind_get(edata))
287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local
    [all...]
emap.h 24 szind_t szind; member in struct:emap_alloc_ctx_t
30 szind_t szind; member in struct:emap_full_alloc_ctx_s
37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind,
68 * szind and slab info appropriately.
72 szind_t szind, bool slab);
94 szind_t szind);
113 * Remap simply changes the szind and slab status of an extent's boundary
116 * slabs). Since the szind and slab status only make sense for active extents,
240 alloc_ctx->szind = metadata.szind;
    [all...]
rtree.h 45 szind_t szind; member in struct:rtree_metadata_s
81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab
192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR;
208 contents.metadata.szind = bits >> LG_VADDR;
256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT +
275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT +
534 contents.metadata.szind = SC_NSIZES;
546 contents.metadata.szind = SC_NSIZES;
edata.h 79 szind_t szind; member in struct:edata_map_info_s
103 * i: szind
132 * szind: The szind flag indicates usable size class index for
267 szind_t szind = (szind_t)((edata->e_bits & EDATA_BITS_SZIND_MASK) >>
269 assert(szind <= SC_NSIZES);
270 return szind;
275 szind_t szind = edata_szind_get_maybe_invalid(edata); local
276 assert(szind < SC_NSIZES); /* Never call when "invalid". */
277 return szind;
    [all...]
  /src/external/bsd/jemalloc/include/jemalloc/internal/
arena_inlines_b.h 177 assert(alloc_ctx.szind != SC_NSIZES);
179 return sz_index2size(alloc_ctx.szind);
208 assert(full_alloc_ctx.szind != SC_NSIZES);
210 return sz_index2size(full_alloc_ctx.szind);
214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) {
232 size_t input_size = sz_index2size(szind);
243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) {
244 if (config_prof && unlikely(szind < SC_NBINS)) {
249 if (large_dalloc_safety_checks(edata, ptr, szind)) {
267 assert(alloc_ctx.szind == edata_szind_get(edata))
287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local
    [all...]
arena_structs_b.h 225 szind_t szind; member in struct:alloc_ctx_s
emap.h 24 szind_t szind; member in struct:emap_alloc_ctx_t
30 szind_t szind; member in struct:emap_full_alloc_ctx_s
37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind,
68 * szind and slab info appropriately.
72 szind_t szind, bool slab);
94 szind_t szind);
113 * Remap simply changes the szind and slab status of an extent's boundary
116 * slabs). Since the szind and slab status only make sense for active extents,
240 alloc_ctx->szind = metadata.szind;
    [all...]
extent_inlines.h 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >>
56 assert(szind <= NSIZES);
57 return szind;
62 szind_t szind = extent_szind_get_maybe_invalid(extent); local
63 assert(szind < NSIZES); /* Never call when "invalid". */
64 return szind;
236 extent_szind_set(extent_t *extent, szind_t szind) {
237 assert(szind <= NSIZES); /* NSIZES means "invalid". */
239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT);
304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed
    [all...]
rtree.h 45 szind_t szind; member in struct:rtree_metadata_s
81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab
192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR;
208 contents.metadata.szind = bits >> LG_VADDR;
256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT +
275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT +
534 contents.metadata.szind = SC_NSIZES;
546 contents.metadata.szind = SC_NSIZES;
edata.h 79 szind_t szind; member in struct:edata_map_info_s
103 * i: szind
132 * szind: The szind flag indicates usable size class index for
267 szind_t szind = (szind_t)((edata->e_bits & EDATA_BITS_SZIND_MASK) >>
269 assert(szind <= SC_NSIZES);
270 return szind;
275 szind_t szind = edata_szind_get_maybe_invalid(edata); local
276 assert(szind < SC_NSIZES); /* Never call when "invalid". */
277 return szind;
    [all...]
  /src/external/bsd/jemalloc.old/dist/include/jemalloc/internal/
arena_structs_b.h 225 szind_t szind; member in struct:alloc_ctx_s
arena_inlines_b.h 177 assert(alloc_ctx.szind != SC_NSIZES);
179 return sz_index2size(alloc_ctx.szind);
208 assert(full_alloc_ctx.szind != SC_NSIZES);
210 return sz_index2size(full_alloc_ctx.szind);
214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) {
232 size_t input_size = sz_index2size(szind);
243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) {
244 if (config_prof && unlikely(szind < SC_NBINS)) {
249 if (large_dalloc_safety_checks(edata, ptr, szind)) {
267 assert(alloc_ctx.szind == edata_szind_get(edata))
287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local
    [all...]
emap.h 24 szind_t szind; member in struct:emap_alloc_ctx_t
30 szind_t szind; member in struct:emap_full_alloc_ctx_s
37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind,
68 * szind and slab info appropriately.
72 szind_t szind, bool slab);
94 szind_t szind);
113 * Remap simply changes the szind and slab status of an extent's boundary
116 * slabs). Since the szind and slab status only make sense for active extents,
240 alloc_ctx->szind = metadata.szind;
    [all...]
extent_inlines.h 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >>
56 assert(szind <= NSIZES);
57 return szind;
62 szind_t szind = extent_szind_get_maybe_invalid(extent); local
63 assert(szind < NSIZES); /* Never call when "invalid". */
64 return szind;
236 extent_szind_set(extent_t *extent, szind_t szind) {
237 assert(szind <= NSIZES); /* NSIZES means "invalid". */
239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT);
304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed
    [all...]
rtree.h 45 szind_t szind; member in struct:rtree_metadata_s
81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab
192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR;
208 contents.metadata.szind = bits >> LG_VADDR;
256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT +
275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT +
534 contents.metadata.szind = SC_NSIZES;
546 contents.metadata.szind = SC_NSIZES;
  /src/external/bsd/jemalloc.old/include/jemalloc/internal/
arena_structs_b.h 225 szind_t szind; member in struct:alloc_ctx_s
arena_inlines_b.h 177 assert(alloc_ctx.szind != SC_NSIZES);
179 return sz_index2size(alloc_ctx.szind);
208 assert(full_alloc_ctx.szind != SC_NSIZES);
210 return sz_index2size(full_alloc_ctx.szind);
214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) {
232 size_t input_size = sz_index2size(szind);
243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) {
244 if (config_prof && unlikely(szind < SC_NBINS)) {
249 if (large_dalloc_safety_checks(edata, ptr, szind)) {
267 assert(alloc_ctx.szind == edata_szind_get(edata))
287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local
    [all...]
emap.h 24 szind_t szind; member in struct:emap_alloc_ctx_t
30 szind_t szind; member in struct:emap_full_alloc_ctx_s
37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind,
68 * szind and slab info appropriately.
72 szind_t szind, bool slab);
94 szind_t szind);
113 * Remap simply changes the szind and slab status of an extent's boundary
116 * slabs). Since the szind and slab status only make sense for active extents,
240 alloc_ctx->szind = metadata.szind;
    [all...]
extent_inlines.h 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >>
56 assert(szind <= NSIZES);
57 return szind;
62 szind_t szind = extent_szind_get_maybe_invalid(extent); local
63 assert(szind < NSIZES); /* Never call when "invalid". */
64 return szind;
236 extent_szind_set(extent_t *extent, szind_t szind) {
237 assert(szind <= NSIZES); /* NSIZES means "invalid". */
239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT);
304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed
    [all...]
rtree.h 45 szind_t szind; member in struct:rtree_metadata_s
81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab
192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR;
208 contents.metadata.szind = bits >> LG_VADDR;
256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT +
275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT +
534 contents.metadata.szind = SC_NSIZES;
546 contents.metadata.szind = SC_NSIZES;

Completed in 22 milliseconds

1 2