| /src/external/bsd/jemalloc/dist/src/ |
| inspect.c | 51 const szind_t szind = edata_szind_get(edata); local 52 *nregs = bin_infos[szind].nregs; 60 bin_t *bin = arena_get_bin(arena, szind, binshard);
|
| large.c | 91 szind_t szind = sz_size2index(usize); local 95 szind, zero, &deferred_work_generated);
|
| prof.c | 111 szind_t szind = sz_size2index(usize); local 124 size_t shifted_unbiased_cnt = prof_shifted_unbiased_cnt[szind]; 125 size_t unbiased_bytes = prof_unbiased_sz[szind]; 145 prof_stats_inc(tsd, szind, size); 157 szind_t szind = sz_size2index(usize); local 169 tctx->cnts.curobjs_shifted_unbiased -= prof_shifted_unbiased_cnt[szind]; 171 tctx->cnts.curbytes_unbiased -= prof_unbiased_sz[szind]; 178 prof_stats_dec(tsd, szind, prof_info->alloc_size);
|
| /src/external/bsd/jemalloc.old/dist/src/ |
| inspect.c | 51 const szind_t szind = edata_szind_get(edata); local 52 *nregs = bin_infos[szind].nregs; 60 bin_t *bin = arena_get_bin(arena, szind, binshard);
|
| large.c | 91 szind_t szind = sz_size2index(usize); local 95 szind, zero, &deferred_work_generated);
|
| /src/external/bsd/jemalloc/dist/include/jemalloc/internal/ |
| arena_inlines_b.h | 177 assert(alloc_ctx.szind != SC_NSIZES); 179 return sz_index2size(alloc_ctx.szind); 208 assert(full_alloc_ctx.szind != SC_NSIZES); 210 return sz_index2size(full_alloc_ctx.szind); 214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) { 232 size_t input_size = sz_index2size(szind); 243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) { 244 if (config_prof && unlikely(szind < SC_NBINS)) { 249 if (large_dalloc_safety_checks(edata, ptr, szind)) { 267 assert(alloc_ctx.szind == edata_szind_get(edata)) 287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local [all...] |
| emap.h | 24 szind_t szind; member in struct:emap_alloc_ctx_t 30 szind_t szind; member in struct:emap_full_alloc_ctx_s 37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind, 68 * szind and slab info appropriately. 72 szind_t szind, bool slab); 94 szind_t szind); 113 * Remap simply changes the szind and slab status of an extent's boundary 116 * slabs). Since the szind and slab status only make sense for active extents, 240 alloc_ctx->szind = metadata.szind; [all...] |
| rtree.h | 45 szind_t szind; member in struct:rtree_metadata_s 81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab 192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR; 208 contents.metadata.szind = bits >> LG_VADDR; 256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT + 275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT + 534 contents.metadata.szind = SC_NSIZES; 546 contents.metadata.szind = SC_NSIZES;
|
| edata.h | 79 szind_t szind; member in struct:edata_map_info_s 103 * i: szind 132 * szind: The szind flag indicates usable size class index for 267 szind_t szind = (szind_t)((edata->e_bits & EDATA_BITS_SZIND_MASK) >> 269 assert(szind <= SC_NSIZES); 270 return szind; 275 szind_t szind = edata_szind_get_maybe_invalid(edata); local 276 assert(szind < SC_NSIZES); /* Never call when "invalid". */ 277 return szind; [all...] |
| /src/external/bsd/jemalloc/include/jemalloc/internal/ |
| arena_inlines_b.h | 177 assert(alloc_ctx.szind != SC_NSIZES); 179 return sz_index2size(alloc_ctx.szind); 208 assert(full_alloc_ctx.szind != SC_NSIZES); 210 return sz_index2size(full_alloc_ctx.szind); 214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) { 232 size_t input_size = sz_index2size(szind); 243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) { 244 if (config_prof && unlikely(szind < SC_NBINS)) { 249 if (large_dalloc_safety_checks(edata, ptr, szind)) { 267 assert(alloc_ctx.szind == edata_szind_get(edata)) 287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local [all...] |
| arena_structs_b.h | 225 szind_t szind; member in struct:alloc_ctx_s
|
| emap.h | 24 szind_t szind; member in struct:emap_alloc_ctx_t 30 szind_t szind; member in struct:emap_full_alloc_ctx_s 37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind, 68 * szind and slab info appropriately. 72 szind_t szind, bool slab); 94 szind_t szind); 113 * Remap simply changes the szind and slab status of an extent's boundary 116 * slabs). Since the szind and slab status only make sense for active extents, 240 alloc_ctx->szind = metadata.szind; [all...] |
| extent_inlines.h | 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> 56 assert(szind <= NSIZES); 57 return szind; 62 szind_t szind = extent_szind_get_maybe_invalid(extent); local 63 assert(szind < NSIZES); /* Never call when "invalid". */ 64 return szind; 236 extent_szind_set(extent_t *extent, szind_t szind) { 237 assert(szind <= NSIZES); /* NSIZES means "invalid". */ 239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT); 304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed [all...] |
| rtree.h | 45 szind_t szind; member in struct:rtree_metadata_s 81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab 192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR; 208 contents.metadata.szind = bits >> LG_VADDR; 256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT + 275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT + 534 contents.metadata.szind = SC_NSIZES; 546 contents.metadata.szind = SC_NSIZES;
|
| edata.h | 79 szind_t szind; member in struct:edata_map_info_s 103 * i: szind 132 * szind: The szind flag indicates usable size class index for 267 szind_t szind = (szind_t)((edata->e_bits & EDATA_BITS_SZIND_MASK) >> 269 assert(szind <= SC_NSIZES); 270 return szind; 275 szind_t szind = edata_szind_get_maybe_invalid(edata); local 276 assert(szind < SC_NSIZES); /* Never call when "invalid". */ 277 return szind; [all...] |
| /src/external/bsd/jemalloc.old/dist/include/jemalloc/internal/ |
| arena_structs_b.h | 225 szind_t szind; member in struct:alloc_ctx_s
|
| arena_inlines_b.h | 177 assert(alloc_ctx.szind != SC_NSIZES); 179 return sz_index2size(alloc_ctx.szind); 208 assert(full_alloc_ctx.szind != SC_NSIZES); 210 return sz_index2size(full_alloc_ctx.szind); 214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) { 232 size_t input_size = sz_index2size(szind); 243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) { 244 if (config_prof && unlikely(szind < SC_NBINS)) { 249 if (large_dalloc_safety_checks(edata, ptr, szind)) { 267 assert(alloc_ctx.szind == edata_szind_get(edata)) 287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local [all...] |
| emap.h | 24 szind_t szind; member in struct:emap_alloc_ctx_t 30 szind_t szind; member in struct:emap_full_alloc_ctx_s 37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind, 68 * szind and slab info appropriately. 72 szind_t szind, bool slab); 94 szind_t szind); 113 * Remap simply changes the szind and slab status of an extent's boundary 116 * slabs). Since the szind and slab status only make sense for active extents, 240 alloc_ctx->szind = metadata.szind; [all...] |
| extent_inlines.h | 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> 56 assert(szind <= NSIZES); 57 return szind; 62 szind_t szind = extent_szind_get_maybe_invalid(extent); local 63 assert(szind < NSIZES); /* Never call when "invalid". */ 64 return szind; 236 extent_szind_set(extent_t *extent, szind_t szind) { 237 assert(szind <= NSIZES); /* NSIZES means "invalid". */ 239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT); 304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed [all...] |
| rtree.h | 45 szind_t szind; member in struct:rtree_metadata_s 81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab 192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR; 208 contents.metadata.szind = bits >> LG_VADDR; 256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT + 275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT + 534 contents.metadata.szind = SC_NSIZES; 546 contents.metadata.szind = SC_NSIZES;
|
| /src/external/bsd/jemalloc.old/include/jemalloc/internal/ |
| arena_structs_b.h | 225 szind_t szind; member in struct:alloc_ctx_s
|
| arena_inlines_b.h | 177 assert(alloc_ctx.szind != SC_NSIZES); 179 return sz_index2size(alloc_ctx.szind); 208 assert(full_alloc_ctx.szind != SC_NSIZES); 210 return sz_index2size(full_alloc_ctx.szind); 214 large_dalloc_safety_checks(edata_t *edata, void *ptr, szind_t szind) { 232 size_t input_size = sz_index2size(szind); 243 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) { 244 if (config_prof && unlikely(szind < SC_NBINS)) { 249 if (large_dalloc_safety_checks(edata, ptr, szind)) { 267 assert(alloc_ctx.szind == edata_szind_get(edata)) 287 tcache_dalloc_large(tsdn_tsd(tsdn), tcache, ptr, szind, local [all...] |
| emap.h | 24 szind_t szind; member in struct:emap_alloc_ctx_t 30 szind_t szind; member in struct:emap_full_alloc_ctx_s 37 void emap_remap(tsdn_t *tsdn, emap_t *emap, edata_t *edata, szind_t szind, 68 * szind and slab info appropriately. 72 szind_t szind, bool slab); 94 szind_t szind); 113 * Remap simply changes the szind and slab status of an extent's boundary 116 * slabs). Since the szind and slab status only make sense for active extents, 240 alloc_ctx->szind = metadata.szind; [all...] |
| extent_inlines.h | 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> 56 assert(szind <= NSIZES); 57 return szind; 62 szind_t szind = extent_szind_get_maybe_invalid(extent); local 63 assert(szind < NSIZES); /* Never call when "invalid". */ 64 return szind; 236 extent_szind_set(extent_t *extent, szind_t szind) { 237 assert(szind <= NSIZES); /* NSIZES means "invalid". */ 239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT); 304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed [all...] |
| rtree.h | 45 szind_t szind; member in struct:rtree_metadata_s 81 * From high to low bits: szind (8 bits), state (4 bits), is_head, slab 192 uintptr_t szind_bits = (uintptr_t)contents.metadata.szind << LG_VADDR; 208 contents.metadata.szind = bits >> LG_VADDR; 256 contents.metadata.szind = metadata_bits >> (RTREE_LEAF_STATE_SHIFT + 275 | ((unsigned)contents.metadata.szind << (RTREE_LEAF_STATE_SHIFT + 534 contents.metadata.szind = SC_NSIZES; 546 contents.metadata.szind = SC_NSIZES;
|