Home | History | Annotate | Line # | Download | only in chfs
chfs_nodeops.c revision 1.1.6.2
      1  1.1.6.2  yamt /*	$NetBSD: chfs_nodeops.c,v 1.1.6.2 2012/04/17 00:08:54 yamt Exp $	*/
      2  1.1.6.2  yamt 
      3  1.1.6.2  yamt /*-
      4  1.1.6.2  yamt  * Copyright (c) 2010 Department of Software Engineering,
      5  1.1.6.2  yamt  *		      University of Szeged, Hungary
      6  1.1.6.2  yamt  * Copyright (C) 2010 David Tengeri <dtengeri (at) inf.u-szeged.hu>
      7  1.1.6.2  yamt  * Copyright (C) 2010 Tamas Toth <ttoth (at) inf.u-szeged.hu>
      8  1.1.6.2  yamt  * Copyright (C) 2010 Adam Hoka <ahoka (at) NetBSD.org>
      9  1.1.6.2  yamt  * All rights reserved.
     10  1.1.6.2  yamt  *
     11  1.1.6.2  yamt  * This code is derived from software contributed to The NetBSD Foundation
     12  1.1.6.2  yamt  * by the Department of Software Engineering, University of Szeged, Hungary
     13  1.1.6.2  yamt  *
     14  1.1.6.2  yamt  * Redistribution and use in source and binary forms, with or without
     15  1.1.6.2  yamt  * modification, are permitted provided that the following conditions
     16  1.1.6.2  yamt  * are met:
     17  1.1.6.2  yamt  * 1. Redistributions of source code must retain the above copyright
     18  1.1.6.2  yamt  *    notice, this list of conditions and the following disclaimer.
     19  1.1.6.2  yamt  * 2. Redistributions in binary form must reproduce the above copyright
     20  1.1.6.2  yamt  *    notice, this list of conditions and the following disclaimer in the
     21  1.1.6.2  yamt  *    documentation and/or other materials provided with the distribution.
     22  1.1.6.2  yamt  *
     23  1.1.6.2  yamt  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
     24  1.1.6.2  yamt  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
     25  1.1.6.2  yamt  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
     26  1.1.6.2  yamt  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
     27  1.1.6.2  yamt  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING,
     28  1.1.6.2  yamt  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
     29  1.1.6.2  yamt  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
     30  1.1.6.2  yamt  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
     31  1.1.6.2  yamt  * OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
     32  1.1.6.2  yamt  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
     33  1.1.6.2  yamt  * SUCH DAMAGE.
     34  1.1.6.2  yamt  */
     35  1.1.6.2  yamt 
     36  1.1.6.2  yamt #include "chfs.h"
     37  1.1.6.2  yamt 
     38  1.1.6.2  yamt /**
     39  1.1.6.2  yamt  * chfs_update_eb_dirty - updates dirty and free space, first and
     40  1.1.6.2  yamt  *			      last node references
     41  1.1.6.2  yamt  * @sbi: CHFS main descriptor structure
     42  1.1.6.2  yamt  * @cheb: eraseblock to update
     43  1.1.6.2  yamt  * @size: increase dirty space size with this
     44  1.1.6.2  yamt  * Returns zero in case of success, %1 in case of fail.
     45  1.1.6.2  yamt  */
     46  1.1.6.2  yamt int
     47  1.1.6.2  yamt chfs_update_eb_dirty(struct chfs_mount *chmp,
     48  1.1.6.2  yamt     struct chfs_eraseblock *cheb, uint32_t size)
     49  1.1.6.2  yamt {
     50  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
     51  1.1.6.2  yamt 	KASSERT(!mutex_owned(&chmp->chm_lock_sizes));
     52  1.1.6.2  yamt 
     53  1.1.6.2  yamt 	if (!size)
     54  1.1.6.2  yamt 		return 0;
     55  1.1.6.2  yamt 
     56  1.1.6.2  yamt 	if (size > cheb->free_size) {
     57  1.1.6.2  yamt 		chfs_err("free_size (%d) is less then dirty space (%d) "
     58  1.1.6.2  yamt 		    "on block (%d)\n", cheb->free_size, size, cheb->lnr);
     59  1.1.6.2  yamt 		return 1;
     60  1.1.6.2  yamt 	}
     61  1.1.6.2  yamt 	mutex_enter(&chmp->chm_lock_sizes);
     62  1.1.6.2  yamt 	//dbg("BEFORE: free_size: %d\n", cheb->free_size);
     63  1.1.6.2  yamt 	chfs_change_size_free(chmp, cheb, -size);
     64  1.1.6.2  yamt 	chfs_change_size_dirty(chmp, cheb, size);
     65  1.1.6.2  yamt 	//dbg(" AFTER: free_size: %d\n", cheb->free_size);
     66  1.1.6.2  yamt 	mutex_exit(&chmp->chm_lock_sizes);
     67  1.1.6.2  yamt 	return 0;
     68  1.1.6.2  yamt }
     69  1.1.6.2  yamt 
     70  1.1.6.2  yamt /**
     71  1.1.6.2  yamt  * chfs_add_node_to_list - adds a data node ref to vnode cache's dnode list
     72  1.1.6.2  yamt  * @sbi: super block informations
     73  1.1.6.2  yamt  * @new: node ref to insert
     74  1.1.6.2  yamt  * @list: head of the list
     75  1.1.6.2  yamt  * This function inserts a data node ref to the list of vnode cache.
     76  1.1.6.2  yamt  * The list is sorted by data node's lnr and offset.
     77  1.1.6.2  yamt  */
     78  1.1.6.2  yamt void
     79  1.1.6.2  yamt chfs_add_node_to_list(struct chfs_mount *chmp,
     80  1.1.6.2  yamt     struct chfs_vnode_cache *vc,
     81  1.1.6.2  yamt     struct chfs_node_ref *new, struct chfs_node_ref **list)
     82  1.1.6.2  yamt {
     83  1.1.6.2  yamt 	struct chfs_node_ref *nextref = *list;
     84  1.1.6.2  yamt 	struct chfs_node_ref *prevref = NULL;
     85  1.1.6.2  yamt 
     86  1.1.6.2  yamt 	while (nextref && nextref != (struct chfs_node_ref *)vc &&
     87  1.1.6.2  yamt 	    (nextref->nref_lnr <= new->nref_lnr)) {
     88  1.1.6.2  yamt 		if (nextref->nref_lnr == new->nref_lnr) {
     89  1.1.6.2  yamt 			while (nextref && nextref !=
     90  1.1.6.2  yamt 			    (struct chfs_node_ref *)vc &&
     91  1.1.6.2  yamt 			    (CHFS_GET_OFS(nextref->nref_offset) <
     92  1.1.6.2  yamt 				CHFS_GET_OFS(new->nref_offset))) {
     93  1.1.6.2  yamt 				prevref = nextref;
     94  1.1.6.2  yamt 				nextref = nextref->nref_next;
     95  1.1.6.2  yamt 			}
     96  1.1.6.2  yamt 			break;
     97  1.1.6.2  yamt 		}
     98  1.1.6.2  yamt 		prevref = nextref;
     99  1.1.6.2  yamt 		nextref = nextref->nref_next;
    100  1.1.6.2  yamt 	}
    101  1.1.6.2  yamt 
    102  1.1.6.2  yamt 	if (nextref && nextref != (struct chfs_node_ref *)vc &&
    103  1.1.6.2  yamt 	    nextref->nref_lnr == new->nref_lnr &&
    104  1.1.6.2  yamt 	    CHFS_GET_OFS(nextref->nref_offset) ==
    105  1.1.6.2  yamt 	    CHFS_GET_OFS(new->nref_offset)) {
    106  1.1.6.2  yamt 		new->nref_next = nextref->nref_next;
    107  1.1.6.2  yamt 	} else {
    108  1.1.6.2  yamt 		new->nref_next = nextref;
    109  1.1.6.2  yamt 	}
    110  1.1.6.2  yamt 
    111  1.1.6.2  yamt 	if (prevref) {
    112  1.1.6.2  yamt 		prevref->nref_next = new;
    113  1.1.6.2  yamt 	} else {
    114  1.1.6.2  yamt 		*list = new;
    115  1.1.6.2  yamt 	}
    116  1.1.6.2  yamt }
    117  1.1.6.2  yamt 
    118  1.1.6.2  yamt void
    119  1.1.6.2  yamt chfs_add_fd_to_inode(struct chfs_mount *chmp,
    120  1.1.6.2  yamt     struct chfs_inode *parent, struct chfs_dirent *new)
    121  1.1.6.2  yamt {
    122  1.1.6.2  yamt //	struct chfs_dirent **prev = &parent->dents;
    123  1.1.6.2  yamt 	struct chfs_dirent *fd, *tmpfd;
    124  1.1.6.2  yamt 
    125  1.1.6.2  yamt 	if (new->version > parent->chvc->highest_version) {
    126  1.1.6.2  yamt 		parent->chvc->highest_version = new->version;
    127  1.1.6.2  yamt 	}
    128  1.1.6.2  yamt 
    129  1.1.6.2  yamt 	//mutex_enter(&parent->inode_lock);
    130  1.1.6.2  yamt 	TAILQ_FOREACH_SAFE(fd, &parent->dents, fds, tmpfd) {
    131  1.1.6.2  yamt 		if (fd->nhash > new->nhash) {
    132  1.1.6.2  yamt 			/* insert new before fd */
    133  1.1.6.2  yamt 			TAILQ_INSERT_BEFORE(fd, new, fds);
    134  1.1.6.2  yamt 			return;
    135  1.1.6.2  yamt 		} else if (fd->nhash == new->nhash &&
    136  1.1.6.2  yamt 		    !strcmp(fd->name, new->name)) {
    137  1.1.6.2  yamt 			if (new->version > fd->version) {
    138  1.1.6.2  yamt //				new->next = fd->next;
    139  1.1.6.2  yamt 				/* replace fd with new */
    140  1.1.6.2  yamt 				TAILQ_INSERT_BEFORE(fd, new, fds);
    141  1.1.6.2  yamt 				TAILQ_REMOVE(&parent->dents, fd, fds);
    142  1.1.6.2  yamt 				if (fd->nref) {
    143  1.1.6.2  yamt 					chfs_mark_node_obsolete(chmp,
    144  1.1.6.2  yamt 					    fd->nref);
    145  1.1.6.2  yamt 				}
    146  1.1.6.2  yamt 				chfs_free_dirent(fd);
    147  1.1.6.2  yamt //				*prev = new;//XXX
    148  1.1.6.2  yamt 			} else {
    149  1.1.6.2  yamt 				chfs_mark_node_obsolete(chmp, new->nref);
    150  1.1.6.2  yamt 				chfs_free_dirent(new);
    151  1.1.6.2  yamt 			}
    152  1.1.6.2  yamt 			return;
    153  1.1.6.2  yamt 		}
    154  1.1.6.2  yamt 	}
    155  1.1.6.2  yamt 	/* if we couldnt fit it elsewhere, lets add to the end */
    156  1.1.6.2  yamt 	/* FIXME insert tail or insert head? */
    157  1.1.6.2  yamt 	TAILQ_INSERT_HEAD(&parent->dents, new, fds);
    158  1.1.6.2  yamt 	//mutex_exit(&parent->inode_lock);
    159  1.1.6.2  yamt #if 0
    160  1.1.6.2  yamt    	while ((*prev) && (*prev)->nhash <= new->nhash) {
    161  1.1.6.2  yamt 		if ((*prev)->nhash == new->nhash &&
    162  1.1.6.2  yamt 		    !strcmp((*prev)->name, new->name)) {
    163  1.1.6.2  yamt 			if (new->version > (*prev)->version) {
    164  1.1.6.2  yamt 				new->next = (*prev)->next;
    165  1.1.6.2  yamt 				if ((*prev)->nref) {
    166  1.1.6.2  yamt 					chfs_mark_node_obsolete(chmp,
    167  1.1.6.2  yamt 					    (*prev)->nref);
    168  1.1.6.2  yamt 				}
    169  1.1.6.2  yamt 				chfs_free_dirent(*prev);
    170  1.1.6.2  yamt 				*prev = new;
    171  1.1.6.2  yamt 			} else {
    172  1.1.6.2  yamt 				chfs_mark_node_obsolete(chmp, new->nref);
    173  1.1.6.2  yamt 				chfs_free_dirent(new);
    174  1.1.6.2  yamt 			}
    175  1.1.6.2  yamt 			return;
    176  1.1.6.2  yamt 		}
    177  1.1.6.2  yamt 		prev = &((*prev)->next);
    178  1.1.6.2  yamt 	}
    179  1.1.6.2  yamt 
    180  1.1.6.2  yamt 	new->next = *prev;
    181  1.1.6.2  yamt 	*prev = new;
    182  1.1.6.2  yamt #endif
    183  1.1.6.2  yamt }
    184  1.1.6.2  yamt 
    185  1.1.6.2  yamt void
    186  1.1.6.2  yamt chfs_add_vnode_ref_to_vc(struct chfs_mount *chmp,
    187  1.1.6.2  yamt     struct chfs_vnode_cache *vc, struct chfs_node_ref *new)
    188  1.1.6.2  yamt {
    189  1.1.6.2  yamt 	if ((struct chfs_vnode_cache*)(vc->v) != vc) {
    190  1.1.6.2  yamt 		chfs_mark_node_obsolete(chmp, vc->v);
    191  1.1.6.2  yamt 		new->nref_next = vc->v->nref_next;
    192  1.1.6.2  yamt 	} else {
    193  1.1.6.2  yamt 		new->nref_next = vc->v;
    194  1.1.6.2  yamt 	}
    195  1.1.6.2  yamt 	vc->v = new;
    196  1.1.6.2  yamt }
    197  1.1.6.2  yamt 
    198  1.1.6.2  yamt struct chfs_node_ref *
    199  1.1.6.2  yamt chfs_nref_next(struct chfs_node_ref *nref)
    200  1.1.6.2  yamt {
    201  1.1.6.2  yamt //	dbg("check nref: %u - %u\n", nref->nref_lnr, nref->nref_offset);
    202  1.1.6.2  yamt 	nref++;
    203  1.1.6.2  yamt //	dbg("next nref: %u - %u\n", nref->nref_lnr, nref->nref_offset);
    204  1.1.6.2  yamt 	if (nref->nref_lnr == REF_LINK_TO_NEXT) {
    205  1.1.6.2  yamt 		//End of chain
    206  1.1.6.2  yamt 		if (!nref->nref_next)
    207  1.1.6.2  yamt 			return NULL;
    208  1.1.6.2  yamt 
    209  1.1.6.2  yamt 		nref = nref->nref_next;
    210  1.1.6.2  yamt 	}
    211  1.1.6.2  yamt 	//end of chain
    212  1.1.6.2  yamt 	if (nref->nref_lnr == REF_EMPTY_NODE)
    213  1.1.6.2  yamt 		return NULL;
    214  1.1.6.2  yamt 
    215  1.1.6.2  yamt 	return nref;
    216  1.1.6.2  yamt }
    217  1.1.6.2  yamt 
    218  1.1.6.2  yamt int
    219  1.1.6.2  yamt chfs_nref_len(struct chfs_mount *chmp,
    220  1.1.6.2  yamt     struct chfs_eraseblock *cheb, struct chfs_node_ref *nref)
    221  1.1.6.2  yamt {
    222  1.1.6.2  yamt 	struct chfs_node_ref *next;
    223  1.1.6.2  yamt 
    224  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
    225  1.1.6.2  yamt 
    226  1.1.6.2  yamt 	if (!cheb)
    227  1.1.6.2  yamt 		cheb = &chmp->chm_blocks[nref->nref_lnr];
    228  1.1.6.2  yamt 
    229  1.1.6.2  yamt 	next = chfs_nref_next(nref);
    230  1.1.6.2  yamt 
    231  1.1.6.2  yamt 	if (!next) {
    232  1.1.6.2  yamt 		//dbg("next null\n");
    233  1.1.6.2  yamt 		return chmp->chm_ebh->eb_size - cheb->free_size -
    234  1.1.6.2  yamt 		    CHFS_GET_OFS(nref->nref_offset);
    235  1.1.6.2  yamt 	}
    236  1.1.6.2  yamt 	//dbg("size: %d\n", CHFS_GET_OFS(next->nref_offset) - CHFS_GET_OFS(nref->nref_offset));
    237  1.1.6.2  yamt 	return CHFS_GET_OFS(next->nref_offset) -
    238  1.1.6.2  yamt 	    CHFS_GET_OFS(nref->nref_offset);
    239  1.1.6.2  yamt }
    240  1.1.6.2  yamt 
    241  1.1.6.2  yamt /**
    242  1.1.6.2  yamt  * chfs_mark_node_obsolete - marks a node obsolete
    243  1.1.6.2  yamt  */
    244  1.1.6.2  yamt void
    245  1.1.6.2  yamt chfs_mark_node_obsolete(struct chfs_mount *chmp,
    246  1.1.6.2  yamt     struct chfs_node_ref *nref)
    247  1.1.6.2  yamt {
    248  1.1.6.2  yamt 	int len;
    249  1.1.6.2  yamt 	struct chfs_eraseblock *cheb;
    250  1.1.6.2  yamt 
    251  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
    252  1.1.6.2  yamt 
    253  1.1.6.2  yamt 	KASSERT(!CHFS_REF_OBSOLETE(nref));
    254  1.1.6.2  yamt 
    255  1.1.6.2  yamt 	KASSERT(nref->nref_lnr <= chmp->chm_ebh->peb_nr);
    256  1.1.6.2  yamt 	cheb = &chmp->chm_blocks[nref->nref_lnr];
    257  1.1.6.2  yamt 
    258  1.1.6.2  yamt #ifdef DIAGNOSTIC
    259  1.1.6.2  yamt 	if (cheb->used_size + cheb->free_size + cheb->dirty_size +
    260  1.1.6.2  yamt 	    cheb->unchecked_size + cheb->wasted_size != chmp->chm_ebh->eb_size) {
    261  1.1.6.2  yamt 		dbg("eraseblock leak detected!\nused: %u\nfree: %u\n"
    262  1.1.6.2  yamt 		    "dirty: %u\nunchecked: %u\nwasted: %u\ntotal: %u\nshould be: %zu\n",
    263  1.1.6.2  yamt 		    cheb->used_size, cheb->free_size, cheb->dirty_size,
    264  1.1.6.2  yamt 		    cheb->unchecked_size, cheb->wasted_size, cheb->used_size + cheb->free_size +
    265  1.1.6.2  yamt 		    cheb->dirty_size + cheb->unchecked_size + cheb->wasted_size,
    266  1.1.6.2  yamt 		    chmp->chm_ebh->eb_size);
    267  1.1.6.2  yamt 	}
    268  1.1.6.2  yamt #endif
    269  1.1.6.2  yamt 
    270  1.1.6.2  yamt 	len = chfs_nref_len(chmp, cheb, nref);
    271  1.1.6.2  yamt 	//dbg("len: %u\n", len);
    272  1.1.6.2  yamt 	//dbg("1. used: %u\n", cheb->used_size);
    273  1.1.6.2  yamt 
    274  1.1.6.2  yamt 	mutex_enter(&chmp->chm_lock_sizes);
    275  1.1.6.2  yamt 
    276  1.1.6.2  yamt 	if (CHFS_REF_FLAGS(nref) == CHFS_UNCHECKED_NODE_MASK) {
    277  1.1.6.2  yamt 		//dbg("UNCHECKED mark an unchecked node\n");
    278  1.1.6.2  yamt 		chfs_change_size_unchecked(chmp, cheb, -len);
    279  1.1.6.2  yamt 		//dbg("unchecked: %u\n", chmp->chm_unchecked_size);
    280  1.1.6.2  yamt 	} else {
    281  1.1.6.2  yamt 		chfs_change_size_used(chmp, cheb, -len);
    282  1.1.6.2  yamt 
    283  1.1.6.2  yamt 		//dbg("2. used: %u\n", cheb->used_size);
    284  1.1.6.2  yamt 		KASSERT(cheb->used_size <= chmp->chm_ebh->eb_size);
    285  1.1.6.2  yamt 	}
    286  1.1.6.2  yamt 	chfs_change_size_dirty(chmp, cheb, len);
    287  1.1.6.2  yamt 
    288  1.1.6.2  yamt #ifdef DIAGNOSTIC
    289  1.1.6.2  yamt 	if (cheb->used_size + cheb->free_size + cheb->dirty_size +
    290  1.1.6.2  yamt 	    cheb->unchecked_size + cheb->wasted_size != chmp->chm_ebh->eb_size) {
    291  1.1.6.2  yamt 		panic("eraseblock leak detected!\nused: %u\nfree: %u\n"
    292  1.1.6.2  yamt 		    "dirty: %u\nunchecked: %u\nwasted: %u\ntotal: %u\nshould be: %zu\n",
    293  1.1.6.2  yamt 		    cheb->used_size, cheb->free_size, cheb->dirty_size,
    294  1.1.6.2  yamt 		    cheb->unchecked_size, cheb->wasted_size, cheb->used_size + cheb->free_size +
    295  1.1.6.2  yamt 		    cheb->dirty_size + cheb->unchecked_size + cheb->wasted_size,
    296  1.1.6.2  yamt 		    chmp->chm_ebh->eb_size);
    297  1.1.6.2  yamt 	}
    298  1.1.6.2  yamt #endif
    299  1.1.6.2  yamt 	nref->nref_offset = CHFS_GET_OFS(nref->nref_offset) |
    300  1.1.6.2  yamt 	    CHFS_OBSOLETE_NODE_MASK;
    301  1.1.6.2  yamt 
    302  1.1.6.2  yamt 	if (chmp->chm_flags & CHFS_MP_FLAG_SCANNING) {
    303  1.1.6.2  yamt 		/*Scan is in progress, do nothing now*/
    304  1.1.6.2  yamt 		mutex_exit(&chmp->chm_lock_sizes);
    305  1.1.6.2  yamt 		return;
    306  1.1.6.2  yamt 	}
    307  1.1.6.2  yamt 
    308  1.1.6.2  yamt 	if (cheb == chmp->chm_nextblock) {
    309  1.1.6.2  yamt 		dbg("Not moving nextblock to dirty/erase_pending list\n");
    310  1.1.6.2  yamt 	} else if (!cheb->used_size && !cheb->unchecked_size) {
    311  1.1.6.2  yamt 		if (cheb == chmp->chm_gcblock) {
    312  1.1.6.2  yamt 			dbg("gcblock is completely dirtied\n");
    313  1.1.6.2  yamt 			chmp->chm_gcblock = NULL;
    314  1.1.6.2  yamt 		} else {
    315  1.1.6.2  yamt 			//remove from a tailq, but we don't know which tailq contains this cheb
    316  1.1.6.2  yamt 			//so we remove it from the dirty list now
    317  1.1.6.2  yamt 			//TAILQ_REMOVE(&chmp->chm_dirty_queue, cheb, queue);
    318  1.1.6.2  yamt 			int removed = 0;
    319  1.1.6.2  yamt 			struct chfs_eraseblock *eb, *tmpeb;
    320  1.1.6.2  yamt 			//XXX ugly code
    321  1.1.6.2  yamt 			TAILQ_FOREACH_SAFE(eb, &chmp->chm_free_queue, queue, tmpeb) {
    322  1.1.6.2  yamt 				if (eb == cheb) {
    323  1.1.6.2  yamt 					TAILQ_REMOVE(&chmp->chm_free_queue, cheb, queue);
    324  1.1.6.2  yamt 					removed = 1;
    325  1.1.6.2  yamt 					break;
    326  1.1.6.2  yamt 				}
    327  1.1.6.2  yamt 			}
    328  1.1.6.2  yamt 			if (removed == 0) {
    329  1.1.6.2  yamt 				TAILQ_FOREACH_SAFE(eb, &chmp->chm_dirty_queue, queue, tmpeb) {
    330  1.1.6.2  yamt 					if (eb == cheb) {
    331  1.1.6.2  yamt 						TAILQ_REMOVE(&chmp->chm_dirty_queue, cheb, queue);
    332  1.1.6.2  yamt 						removed = 1;
    333  1.1.6.2  yamt 						break;
    334  1.1.6.2  yamt 					}
    335  1.1.6.2  yamt 				}
    336  1.1.6.2  yamt 			}
    337  1.1.6.2  yamt 			if (removed == 0) {
    338  1.1.6.2  yamt 				TAILQ_FOREACH_SAFE(eb, &chmp->chm_very_dirty_queue, queue, tmpeb) {
    339  1.1.6.2  yamt 					if (eb == cheb) {
    340  1.1.6.2  yamt 						TAILQ_REMOVE(&chmp->chm_very_dirty_queue, cheb, queue);
    341  1.1.6.2  yamt 						removed = 1;
    342  1.1.6.2  yamt 						break;
    343  1.1.6.2  yamt 					}
    344  1.1.6.2  yamt 				}
    345  1.1.6.2  yamt 			}
    346  1.1.6.2  yamt 			if (removed == 0) {
    347  1.1.6.2  yamt 				TAILQ_FOREACH_SAFE(eb, &chmp->chm_clean_queue, queue, tmpeb) {
    348  1.1.6.2  yamt 					if (eb == cheb) {
    349  1.1.6.2  yamt 						TAILQ_REMOVE(&chmp->chm_clean_queue, cheb, queue);
    350  1.1.6.2  yamt 						removed = 1;
    351  1.1.6.2  yamt 						break;
    352  1.1.6.2  yamt 					}
    353  1.1.6.2  yamt 				}
    354  1.1.6.2  yamt 			}
    355  1.1.6.2  yamt 		}
    356  1.1.6.2  yamt 		if (chmp->chm_wbuf_len) {
    357  1.1.6.2  yamt 			dbg("Adding block to erasable pending wbuf queue\n");
    358  1.1.6.2  yamt 			TAILQ_INSERT_TAIL(&chmp->chm_erasable_pending_wbuf_queue,
    359  1.1.6.2  yamt 			    cheb, queue);
    360  1.1.6.2  yamt 		} else {
    361  1.1.6.2  yamt 			TAILQ_INSERT_TAIL(&chmp->chm_erase_pending_queue,
    362  1.1.6.2  yamt 			    cheb, queue);
    363  1.1.6.2  yamt 			chmp->chm_nr_erasable_blocks++;
    364  1.1.6.2  yamt 		}
    365  1.1.6.2  yamt 		chfs_remap_leb(chmp);
    366  1.1.6.2  yamt 	} else if (cheb == chmp->chm_gcblock) {
    367  1.1.6.2  yamt 		dbg("Not moving gcblock to dirty list\n");
    368  1.1.6.2  yamt 	} else if (cheb->dirty_size > MAX_DIRTY_TO_CLEAN &&
    369  1.1.6.2  yamt 	    cheb->dirty_size - len <= MAX_DIRTY_TO_CLEAN) {
    370  1.1.6.2  yamt 		dbg("Freshly dirtied, remove it from clean queue and "
    371  1.1.6.2  yamt 		    "add it to dirty\n");
    372  1.1.6.2  yamt 		TAILQ_REMOVE(&chmp->chm_clean_queue, cheb, queue);
    373  1.1.6.2  yamt 		TAILQ_INSERT_TAIL(&chmp->chm_dirty_queue, cheb, queue);
    374  1.1.6.2  yamt 	} else if (VERY_DIRTY(chmp, cheb->dirty_size) &&
    375  1.1.6.2  yamt 	    !VERY_DIRTY(chmp, cheb->dirty_size - len)) {
    376  1.1.6.2  yamt 		dbg("Becomes now very dirty, remove it from dirty "
    377  1.1.6.2  yamt 		    "queue and add it to very dirty\n");
    378  1.1.6.2  yamt 		TAILQ_REMOVE(&chmp->chm_dirty_queue, cheb, queue);
    379  1.1.6.2  yamt 		TAILQ_INSERT_TAIL(&chmp->chm_very_dirty_queue, cheb, queue);
    380  1.1.6.2  yamt 	} else {
    381  1.1.6.2  yamt 		dbg("Leave cheb where it is\n");
    382  1.1.6.2  yamt 	}
    383  1.1.6.2  yamt 	mutex_exit(&chmp->chm_lock_sizes);
    384  1.1.6.2  yamt 	return;
    385  1.1.6.2  yamt }
    386  1.1.6.2  yamt 
    387  1.1.6.2  yamt /**
    388  1.1.6.2  yamt  * chfs_close_eraseblock - close an eraseblock
    389  1.1.6.2  yamt  * @chmp: chfs mount structure
    390  1.1.6.2  yamt  * @cheb: eraseblock informations
    391  1.1.6.2  yamt  *
    392  1.1.6.2  yamt  * This function close the physical chain of the nodes on the eraseblock,
    393  1.1.6.2  yamt  * convert its free size to dirty and add it to clean, dirty or very dirty list.
    394  1.1.6.2  yamt  */
    395  1.1.6.2  yamt int
    396  1.1.6.2  yamt chfs_close_eraseblock(struct chfs_mount *chmp,
    397  1.1.6.2  yamt     struct chfs_eraseblock *cheb)
    398  1.1.6.2  yamt {
    399  1.1.6.2  yamt 	uint32_t offset;
    400  1.1.6.2  yamt 	struct chfs_node_ref *nref;
    401  1.1.6.2  yamt 
    402  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
    403  1.1.6.2  yamt 
    404  1.1.6.2  yamt 	offset = chmp->chm_ebh->eb_size - cheb->free_size;
    405  1.1.6.2  yamt 
    406  1.1.6.2  yamt 	// Close the chain
    407  1.1.6.2  yamt 	nref = chfs_alloc_node_ref(cheb);
    408  1.1.6.2  yamt 	if (!nref)
    409  1.1.6.2  yamt 		return ENOMEM;
    410  1.1.6.2  yamt 
    411  1.1.6.2  yamt 	nref->nref_next = NULL;
    412  1.1.6.2  yamt 	nref->nref_offset = offset;
    413  1.1.6.2  yamt 
    414  1.1.6.2  yamt 	// Mark space as dirty
    415  1.1.6.2  yamt 	chfs_update_eb_dirty(chmp, cheb, cheb->free_size);
    416  1.1.6.2  yamt 
    417  1.1.6.2  yamt 	if (cheb->dirty_size < MAX_DIRTY_TO_CLEAN) {
    418  1.1.6.2  yamt 		TAILQ_INSERT_TAIL(&chmp->chm_clean_queue, cheb, queue);
    419  1.1.6.2  yamt 	} else if (VERY_DIRTY(chmp, cheb->dirty_size)) {
    420  1.1.6.2  yamt 		TAILQ_INSERT_TAIL(&chmp->chm_very_dirty_queue, cheb, queue);
    421  1.1.6.2  yamt 	} else {
    422  1.1.6.2  yamt 		TAILQ_INSERT_TAIL(&chmp->chm_dirty_queue, cheb, queue);
    423  1.1.6.2  yamt 	}
    424  1.1.6.2  yamt 	return 0;
    425  1.1.6.2  yamt }
    426  1.1.6.2  yamt 
    427  1.1.6.2  yamt int
    428  1.1.6.2  yamt chfs_reserve_space_normal(struct chfs_mount *chmp, uint32_t size, int prio)
    429  1.1.6.2  yamt {
    430  1.1.6.2  yamt 	int ret;
    431  1.1.6.2  yamt 
    432  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
    433  1.1.6.2  yamt 
    434  1.1.6.2  yamt 	mutex_enter(&chmp->chm_lock_sizes);
    435  1.1.6.2  yamt 	while (chmp->chm_nr_free_blocks + chmp->chm_nr_erasable_blocks < chmp->chm_resv_blocks_write) {
    436  1.1.6.2  yamt 		dbg("free: %d, erasable: %d, resv: %d\n", chmp->chm_nr_free_blocks, chmp->chm_nr_erasable_blocks, chmp->chm_resv_blocks_write);
    437  1.1.6.2  yamt 		uint32_t avail, dirty;
    438  1.1.6.2  yamt 		if (prio == ALLOC_DELETION && chmp->chm_nr_free_blocks + chmp->chm_nr_erasable_blocks >= chmp->chm_resv_blocks_deletion)
    439  1.1.6.2  yamt 			break;
    440  1.1.6.2  yamt 
    441  1.1.6.2  yamt 		dirty = chmp->chm_dirty_size - chmp->chm_nr_erasable_blocks * chmp->chm_ebh->eb_size + chmp->chm_unchecked_size;
    442  1.1.6.2  yamt 		if (dirty < chmp->chm_nospc_dirty) {
    443  1.1.6.2  yamt 			dbg("dirty: %u < nospc_dirty: %u\n", dirty, chmp->chm_nospc_dirty);
    444  1.1.6.2  yamt 			ret = ENOSPC;
    445  1.1.6.2  yamt 			mutex_exit(&chmp->chm_lock_sizes);
    446  1.1.6.2  yamt 			goto out;
    447  1.1.6.2  yamt 		}
    448  1.1.6.2  yamt 
    449  1.1.6.2  yamt 		avail = chmp->chm_free_size - (chmp->chm_resv_blocks_write * chmp->chm_ebh->eb_size);
    450  1.1.6.2  yamt 		if (size > avail) {
    451  1.1.6.2  yamt 			dbg("size: %u > avail: %u\n", size, avail);
    452  1.1.6.2  yamt 			ret = ENOSPC;
    453  1.1.6.2  yamt 			mutex_exit(&chmp->chm_lock_sizes);
    454  1.1.6.2  yamt 			goto out;
    455  1.1.6.2  yamt 		}
    456  1.1.6.2  yamt 
    457  1.1.6.2  yamt 		mutex_exit(&chmp->chm_lock_sizes);
    458  1.1.6.2  yamt 		ret = chfs_gcollect_pass(chmp);
    459  1.1.6.2  yamt 		/* gcollect_pass exits chm_lock_mountfields */
    460  1.1.6.2  yamt 		mutex_enter(&chmp->chm_lock_mountfields);
    461  1.1.6.2  yamt 		mutex_enter(&chmp->chm_lock_sizes);
    462  1.1.6.2  yamt 
    463  1.1.6.2  yamt 		if (chmp->chm_nr_erasable_blocks ||
    464  1.1.6.2  yamt 		    !TAILQ_EMPTY(&chmp->chm_erasable_pending_wbuf_queue) ||
    465  1.1.6.2  yamt 		    ret == EAGAIN) {
    466  1.1.6.2  yamt 			ret = chfs_remap_leb(chmp);
    467  1.1.6.2  yamt 		}
    468  1.1.6.2  yamt 
    469  1.1.6.2  yamt 		if (ret) {
    470  1.1.6.2  yamt 			mutex_exit(&chmp->chm_lock_sizes);
    471  1.1.6.2  yamt 			goto out;
    472  1.1.6.2  yamt 		}
    473  1.1.6.2  yamt 	}
    474  1.1.6.2  yamt 
    475  1.1.6.2  yamt 	mutex_exit(&chmp->chm_lock_sizes);
    476  1.1.6.2  yamt 	ret = chfs_reserve_space(chmp, size);
    477  1.1.6.2  yamt out:
    478  1.1.6.2  yamt 	return ret;
    479  1.1.6.2  yamt }
    480  1.1.6.2  yamt 
    481  1.1.6.2  yamt 
    482  1.1.6.2  yamt int
    483  1.1.6.2  yamt chfs_reserve_space_gc(struct chfs_mount *chmp, uint32_t size)
    484  1.1.6.2  yamt {
    485  1.1.6.2  yamt 	int ret;
    486  1.1.6.2  yamt 
    487  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
    488  1.1.6.2  yamt 
    489  1.1.6.2  yamt 	mutex_enter(&chmp->chm_lock_sizes);
    490  1.1.6.2  yamt 	chfs_remap_leb(chmp);
    491  1.1.6.2  yamt 
    492  1.1.6.2  yamt 	if (size > chmp->chm_free_size) {
    493  1.1.6.2  yamt 		dbg("size: %u\n", size);
    494  1.1.6.2  yamt 		mutex_exit(&chmp->chm_lock_sizes);
    495  1.1.6.2  yamt 		return ENOSPC;
    496  1.1.6.2  yamt 	}
    497  1.1.6.2  yamt 
    498  1.1.6.2  yamt 	mutex_exit(&chmp->chm_lock_sizes);
    499  1.1.6.2  yamt 	ret = chfs_reserve_space(chmp, size);
    500  1.1.6.2  yamt 	return ret;
    501  1.1.6.2  yamt }
    502  1.1.6.2  yamt 
    503  1.1.6.2  yamt /**
    504  1.1.6.2  yamt  * chfs_reserve_space - finds a block which free size is >= requested size
    505  1.1.6.2  yamt  * @chmp: chfs mount point
    506  1.1.6.2  yamt  * @size: requested size
    507  1.1.6.2  yamt  * @len: reserved spaced will be returned in this variable;
    508  1.1.6.2  yamt  * Returns zero in case of success, error code in case of fail.
    509  1.1.6.2  yamt  */
    510  1.1.6.2  yamt int
    511  1.1.6.2  yamt chfs_reserve_space(struct chfs_mount *chmp, uint32_t size)
    512  1.1.6.2  yamt {
    513  1.1.6.2  yamt 	//TODO define minimum reserved blocks, which is needed for writing
    514  1.1.6.2  yamt 	//TODO check we have enough free blocks to write
    515  1.1.6.2  yamt 	//TODO if no: need erase and GC
    516  1.1.6.2  yamt 
    517  1.1.6.2  yamt 	int err;
    518  1.1.6.2  yamt 	struct chfs_eraseblock *cheb;
    519  1.1.6.2  yamt 
    520  1.1.6.2  yamt 	KASSERT(mutex_owned(&chmp->chm_lock_mountfields));
    521  1.1.6.2  yamt 	KASSERT(!mutex_owned(&chmp->chm_lock_sizes));
    522  1.1.6.2  yamt 
    523  1.1.6.2  yamt 	cheb = chmp->chm_nextblock;
    524  1.1.6.2  yamt 	//if (cheb)
    525  1.1.6.2  yamt 	    //dbg("cheb->free_size %u\n", cheb->free_size);
    526  1.1.6.2  yamt 	if (cheb && size > cheb->free_size) {
    527  1.1.6.2  yamt 		dbg("size: %u > free_size: %u\n", size, cheb->free_size);
    528  1.1.6.2  yamt 		/*
    529  1.1.6.2  yamt 		 * There isn't enough space on this eraseblock, we mark this as
    530  1.1.6.2  yamt 		 * dirty and close the physical chain of the node refs.
    531  1.1.6.2  yamt 		 */
    532  1.1.6.2  yamt 		//Write out pending data if any
    533  1.1.6.2  yamt 		if (chmp->chm_wbuf_len) {
    534  1.1.6.2  yamt 			chfs_flush_pending_wbuf(chmp);
    535  1.1.6.2  yamt 			//FIXME need goto restart here?
    536  1.1.6.2  yamt 		}
    537  1.1.6.2  yamt 
    538  1.1.6.2  yamt 		while (chmp->chm_wbuf_ofs < chmp->chm_ebh->eb_size) {
    539  1.1.6.2  yamt 			dbg("wbuf ofs: %zu - eb_size: %zu\n",
    540  1.1.6.2  yamt 			    chmp->chm_wbuf_ofs, chmp->chm_ebh->eb_size);
    541  1.1.6.2  yamt 			chfs_flush_pending_wbuf(chmp);
    542  1.1.6.2  yamt 		}
    543  1.1.6.2  yamt 
    544  1.1.6.2  yamt 		if (!(chmp->chm_wbuf_ofs % chmp->chm_ebh->eb_size) && !chmp->chm_wbuf_len)
    545  1.1.6.2  yamt 			chmp->chm_wbuf_ofs = 0xffffffff;
    546  1.1.6.2  yamt 
    547  1.1.6.2  yamt 		err = chfs_close_eraseblock(chmp, cheb);
    548  1.1.6.2  yamt 		if (err)
    549  1.1.6.2  yamt 			return err;
    550  1.1.6.2  yamt 
    551  1.1.6.2  yamt 		cheb = NULL;
    552  1.1.6.2  yamt 	}
    553  1.1.6.2  yamt 	if (!cheb) {
    554  1.1.6.2  yamt 		//get a block for nextblock
    555  1.1.6.2  yamt 		if (TAILQ_EMPTY(&chmp->chm_free_queue)) {
    556  1.1.6.2  yamt 			// If this succeeds there will be a block on free_queue
    557  1.1.6.2  yamt 			dbg("cheb remap (free: %d)\n", chmp->chm_nr_free_blocks);
    558  1.1.6.2  yamt 			err = chfs_remap_leb(chmp);
    559  1.1.6.2  yamt 			if (err)
    560  1.1.6.2  yamt 				return err;
    561  1.1.6.2  yamt 		}
    562  1.1.6.2  yamt 		cheb = TAILQ_FIRST(&chmp->chm_free_queue);
    563  1.1.6.2  yamt 		TAILQ_REMOVE(&chmp->chm_free_queue, cheb, queue);
    564  1.1.6.2  yamt 		chmp->chm_nextblock = cheb;
    565  1.1.6.2  yamt 		chmp->chm_nr_free_blocks--;
    566  1.1.6.2  yamt 	}
    567  1.1.6.2  yamt 
    568  1.1.6.2  yamt 	return 0;
    569  1.1.6.2  yamt }
    570  1.1.6.2  yamt 
    571