Lines Matching refs:edata
66 * The information about a particular edata that lives in an emap. Space is
67 * more precious there (the information, plus the edata pointer, has to live in
208 * If this edata is a user allocation from an HPA, it comes out of some
257 edata_arena_ind_get(const edata_t *edata) {
258 unsigned arena_ind = (unsigned)((edata->e_bits &
266 edata_szind_get_maybe_invalid(const edata_t *edata) {
267 szind_t szind = (szind_t)((edata->e_bits & EDATA_BITS_SZIND_MASK) >>
274 edata_szind_get(const edata_t *edata) {
275 szind_t szind = edata_szind_get_maybe_invalid(edata);
281 edata_usize_get(const edata_t *edata) {
282 return sz_index2size(edata_szind_get(edata));
286 edata_binshard_get(const edata_t *edata) {
287 unsigned binshard = (unsigned)((edata->e_bits &
289 assert(binshard < bin_infos[edata_szind_get(edata)].n_shards);
294 edata_sn_get(const edata_t *edata) {
295 return edata->e_sn;
299 edata_state_get(const edata_t *edata) {
300 return (extent_state_t)((edata->e_bits & EDATA_BITS_STATE_MASK) >>
305 edata_guarded_get(const edata_t *edata) {
306 return (bool)((edata->e_bits & EDATA_BITS_GUARDED_MASK) >>
311 edata_zeroed_get(const edata_t *edata) {
312 return (bool)((edata->e_bits & EDATA_BITS_ZEROED_MASK) >>
317 edata_committed_get(const edata_t *edata) {
318 return (bool)((edata->e_bits & EDATA_BITS_COMMITTED_MASK) >>
323 edata_pai_get(const edata_t *edata) {
324 return (extent_pai_t)((edata->e_bits & EDATA_BITS_PAI_MASK) >>
329 edata_slab_get(const edata_t *edata) {
330 return (bool)((edata->e_bits & EDATA_BITS_SLAB_MASK) >>
335 edata_nfree_get(const edata_t *edata) {
336 assert(edata_slab_get(edata));
337 return (unsigned)((edata->e_bits & EDATA_BITS_NFREE_MASK) >>
342 edata_base_get(const edata_t *edata) {
343 assert(edata->e_addr == PAGE_ADDR2BASE(edata->e_addr) ||
344 !edata_slab_get(edata));
345 return PAGE_ADDR2BASE(edata->e_addr);
349 edata_addr_get(const edata_t *edata) {
350 assert(edata->e_addr == PAGE_ADDR2BASE(edata->e_addr) ||
351 !edata_slab_get(edata));
352 return edata->e_addr;
356 edata_size_get(const edata_t *edata) {
357 return (edata->e_size_esn & EDATA_SIZE_MASK);
361 edata_esn_get(const edata_t *edata) {
362 return (edata->e_size_esn & EDATA_ESN_MASK);
366 edata_bsize_get(const edata_t *edata) {
367 return edata->e_bsize;
371 edata_ps_get(const edata_t *edata) {
372 assert(edata_pai_get(edata) == EXTENT_PAI_HPA);
373 return edata->e_ps;
377 edata_before_get(const edata_t *edata) {
378 return (void *)((uintptr_t)edata_base_get(edata) - PAGE);
382 edata_last_get(const edata_t *edata) {
383 return (void *)((uintptr_t)edata_base_get(edata) +
384 edata_size_get(edata) - PAGE);
388 edata_past_get(const edata_t *edata) {
389 return (void *)((uintptr_t)edata_base_get(edata) +
390 edata_size_get(edata));
394 edata_slab_data_get(edata_t *edata) {
395 assert(edata_slab_get(edata));
396 return &edata->e_slab_data;
400 edata_slab_data_get_const(const edata_t *edata) {
401 assert(edata_slab_get(edata));
402 return &edata->e_slab_data;
406 edata_prof_tctx_get(const edata_t *edata) {
407 return (prof_tctx_t *)atomic_load_p(&edata->e_prof_info.e_prof_tctx,
412 edata_prof_alloc_time_get(const edata_t *edata) {
413 return &edata->e_prof_info.e_prof_alloc_time;
417 edata_prof_alloc_size_get(const edata_t *edata) {
418 return edata->e_prof_info.e_prof_alloc_size;
422 edata_prof_recent_alloc_get_dont_call_directly(const edata_t *edata) {
424 &edata->e_prof_info.e_prof_recent_alloc, ATOMIC_RELAXED);
428 edata_arena_ind_set(edata_t *edata, unsigned arena_ind) {
429 edata->e_bits = (edata->e_bits & ~EDATA_BITS_ARENA_MASK) |
434 edata_binshard_set(edata_t *edata, unsigned binshard) {
436 assert(binshard < bin_infos[edata_szind_get(edata)].n_shards);
437 edata->e_bits = (edata->e_bits & ~EDATA_BITS_BINSHARD_MASK) |
442 edata_addr_set(edata_t *edata, void *addr) {
443 edata->e_addr = addr;
447 edata_size_set(edata_t *edata, size_t size) {
449 edata->e_size_esn = size | (edata->e_size_esn & ~EDATA_SIZE_MASK);
453 edata_esn_set(edata_t *edata, size_t esn) {
454 edata->e_size_esn = (edata->e_size_esn & ~EDATA_ESN_MASK) | (esn &
459 edata_bsize_set(edata_t *edata, size_t bsize) {
460 edata->e_bsize = bsize;
464 edata_ps_set(edata_t *edata, hpdata_t *ps) {
465 assert(edata_pai_get(edata) == EXTENT_PAI_HPA);
466 edata->e_ps = ps;
470 edata_szind_set(edata_t *edata, szind_t szind) {
472 edata->e_bits = (edata->e_bits & ~EDATA_BITS_SZIND_MASK) |
477 edata_nfree_set(edata_t *edata, unsigned nfree) {
478 assert(edata_slab_get(edata));
479 edata->e_bits = (edata->e_bits & ~EDATA_BITS_NFREE_MASK) |
484 edata_nfree_binshard_set(edata_t *edata, unsigned nfree, unsigned binshard) {
486 assert(binshard < bin_infos[edata_szind_get(edata)].n_shards);
487 edata->e_bits = (edata->e_bits &
494 edata_nfree_inc(edata_t *edata) {
495 assert(edata_slab_get(edata));
496 edata->e_bits += ((uint64_t)1U << EDATA_BITS_NFREE_SHIFT);
500 edata_nfree_dec(edata_t *edata) {
501 assert(edata_slab_get(edata));
502 edata->e_bits -= ((uint64_t)1U << EDATA_BITS_NFREE_SHIFT);
506 edata_nfree_sub(edata_t *edata, uint64_t n) {
507 assert(edata_slab_get(edata));
508 edata->e_bits -= (n << EDATA_BITS_NFREE_SHIFT);
512 edata_sn_set(edata_t *edata, uint64_t sn) {
513 edata->e_sn = sn;
517 edata_state_set(edata_t *edata, extent_state_t state) {
518 edata->e_bits = (edata->e_bits & ~EDATA_BITS_STATE_MASK) |
523 edata_guarded_set(edata_t *edata, bool guarded) {
524 edata->e_bits = (edata->e_bits & ~EDATA_BITS_GUARDED_MASK) |
529 edata_zeroed_set(edata_t *edata, bool zeroed) {
530 edata->e_bits = (edata->e_bits & ~EDATA_BITS_ZEROED_MASK) |
535 edata_committed_set(edata_t *edata, bool committed) {
536 edata->e_bits = (edata->e_bits & ~EDATA_BITS_COMMITTED_MASK) |
541 edata_pai_set(edata_t *edata, extent_pai_t pai) {
542 edata->e_bits = (edata->e_bits & ~EDATA_BITS_PAI_MASK) |
547 edata_slab_set(edata_t *edata, bool slab) {
548 edata->e_bits = (edata->e_bits & ~EDATA_BITS_SLAB_MASK) |
553 edata_prof_tctx_set(edata_t *edata, prof_tctx_t *tctx) {
554 atomic_store_p(&edata->e_prof_info.e_prof_tctx, tctx, ATOMIC_RELEASE);
558 edata_prof_alloc_time_set(edata_t *edata, nstime_t *t) {
559 nstime_copy(&edata->e_prof_info.e_prof_alloc_time, t);
563 edata_prof_alloc_size_set(edata_t *edata, size_t size) {
564 edata->e_prof_info.e_prof_alloc_size = size;
568 edata_prof_recent_alloc_set_dont_call_directly(edata_t *edata,
570 atomic_store_p(&edata->e_prof_info.e_prof_recent_alloc, recent_alloc,
575 edata_is_head_get(edata_t *edata) {
576 return (bool)((edata->e_bits & EDATA_BITS_IS_HEAD_MASK) >>
581 edata_is_head_set(edata_t *edata, bool is_head) {
582 edata->e_bits = (edata->e_bits & ~EDATA_BITS_IS_HEAD_MASK) |
599 edata_init(edata_t *edata, unsigned arena_ind, void *addr, size_t size,
604 edata_arena_ind_set(edata, arena_ind);
605 edata_addr_set(edata, addr);
606 edata_size_set(edata, size);
607 edata_slab_set(edata, slab);
608 edata_szind_set(edata, szind);
609 edata_sn_set(edata, sn);
610 edata_state_set(edata, state);
611 edata_guarded_set(edata, false);
612 edata_zeroed_set(edata, zeroed);
613 edata_committed_set(edata, committed);
614 edata_pai_set(edata, pai);
615 edata_is_head_set(edata, is_head == EXTENT_IS_HEAD);
617 edata_prof_tctx_set(edata, NULL);
622 edata_binit(edata_t *edata, void *addr, size_t bsize, uint64_t sn) {
623 edata_arena_ind_set(edata, (1U << MALLOCX_ARENA_BITS) - 1);
624 edata_addr_set(edata, addr);
625 edata_bsize_set(edata, bsize);
626 edata_slab_set(edata, false);
627 edata_szind_set(edata, SC_NSIZES);
628 edata_sn_set(edata, sn);
629 edata_state_set(edata, extent_state_active);
630 edata_guarded_set(edata, false);
631 edata_zeroed_set(edata, true);
632 edata_committed_set(edata, true);
638 edata_pai_set(edata, EXTENT_PAI_PAC);
658 edata_cmp_summary_get(const edata_t *edata) {
659 return (edata_cmp_summary_t){edata_sn_get(edata),
660 (uintptr_t)edata_addr_get(edata)};