Home | History | Annotate | Line # | Download | only in prekern
mm.c revision 1.13
      1  1.13  maxv /*	$NetBSD: mm.c,v 1.13 2017/11/14 07:06:34 maxv Exp $	*/
      2   1.1  maxv 
      3   1.1  maxv /*
      4   1.1  maxv  * Copyright (c) 2017 The NetBSD Foundation, Inc. All rights reserved.
      5   1.1  maxv  *
      6   1.1  maxv  * This code is derived from software contributed to The NetBSD Foundation
      7   1.1  maxv  * by Maxime Villard.
      8   1.1  maxv  *
      9   1.1  maxv  * Redistribution and use in source and binary forms, with or without
     10   1.1  maxv  * modification, are permitted provided that the following conditions
     11   1.1  maxv  * are met:
     12   1.1  maxv  * 1. Redistributions of source code must retain the above copyright
     13   1.1  maxv  *    notice, this list of conditions and the following disclaimer.
     14   1.1  maxv  * 2. Redistributions in binary form must reproduce the above copyright
     15   1.1  maxv  *    notice, this list of conditions and the following disclaimer in the
     16   1.1  maxv  *    documentation and/or other materials provided with the distribution.
     17   1.1  maxv  *
     18   1.1  maxv  * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS
     19   1.1  maxv  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
     20   1.1  maxv  * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
     21   1.1  maxv  * PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE FOUNDATION OR CONTRIBUTORS
     22   1.1  maxv  * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
     23   1.1  maxv  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
     24   1.1  maxv  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
     25   1.1  maxv  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
     26   1.1  maxv  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
     27   1.1  maxv  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
     28   1.1  maxv  * POSSIBILITY OF SUCH DAMAGE.
     29   1.1  maxv  */
     30   1.1  maxv 
     31   1.1  maxv #include "prekern.h"
     32   1.1  maxv 
     33   1.9  maxv #define PAD_TEXT	0xCC
     34   1.9  maxv #define PAD_RODATA	0x00
     35   1.9  maxv #define PAD_DATA	0x00
     36   1.9  maxv 
     37   1.1  maxv static const pt_entry_t protection_codes[3] = {
     38   1.1  maxv 	[MM_PROT_READ] = PG_RO | PG_NX,
     39   1.1  maxv 	[MM_PROT_WRITE] = PG_RW | PG_NX,
     40   1.1  maxv 	[MM_PROT_EXECUTE] = PG_RO,
     41   1.1  maxv 	/* RWX does not exist */
     42   1.1  maxv };
     43   1.1  maxv 
     44   1.6  maxv struct bootspace bootspace;
     45   1.6  maxv 
     46   1.1  maxv extern paddr_t kernpa_start, kernpa_end;
     47   1.1  maxv vaddr_t iom_base;
     48   1.1  maxv 
     49   1.1  maxv paddr_t pa_avail = 0;
     50   1.2  maxv static const vaddr_t tmpva = (PREKERNBASE + NKL2_KIMG_ENTRIES * NBPD_L2);
     51   1.1  maxv 
     52   1.1  maxv void
     53   1.1  maxv mm_init(paddr_t first_pa)
     54   1.1  maxv {
     55   1.1  maxv 	pa_avail = first_pa;
     56   1.1  maxv }
     57   1.1  maxv 
     58   1.1  maxv static void
     59   1.1  maxv mm_enter_pa(paddr_t pa, vaddr_t va, pte_prot_t prot)
     60   1.1  maxv {
     61   1.1  maxv 	PTE_BASE[pl1_i(va)] = pa | PG_V | protection_codes[prot];
     62   1.1  maxv }
     63   1.1  maxv 
     64   1.1  maxv static void
     65   1.1  maxv mm_flush_va(vaddr_t va)
     66   1.1  maxv {
     67   1.1  maxv 	asm volatile("invlpg (%0)" ::"r" (va) : "memory");
     68   1.1  maxv }
     69   1.1  maxv 
     70   1.2  maxv static paddr_t
     71   1.2  maxv mm_palloc(size_t npages)
     72   1.2  maxv {
     73   1.2  maxv 	paddr_t pa;
     74   1.2  maxv 	size_t i;
     75   1.2  maxv 
     76   1.2  maxv 	/* Allocate the physical pages */
     77   1.2  maxv 	pa = pa_avail;
     78   1.2  maxv 	pa_avail += npages * PAGE_SIZE;
     79   1.2  maxv 
     80   1.2  maxv 	/* Zero them out */
     81   1.2  maxv 	for (i = 0; i < npages; i++) {
     82   1.2  maxv 		mm_enter_pa(pa + i * PAGE_SIZE, tmpva,
     83   1.2  maxv 		    MM_PROT_READ|MM_PROT_WRITE);
     84   1.2  maxv 		mm_flush_va(tmpva);
     85   1.2  maxv 		memset((void *)tmpva, 0, PAGE_SIZE);
     86   1.2  maxv 	}
     87   1.2  maxv 
     88   1.2  maxv 	return pa;
     89   1.2  maxv }
     90   1.2  maxv 
     91   1.3  maxv static bool
     92   1.3  maxv mm_pte_is_valid(pt_entry_t pte)
     93   1.3  maxv {
     94   1.3  maxv 	return ((pte & PG_V) != 0);
     95   1.3  maxv }
     96   1.3  maxv 
     97   1.1  maxv paddr_t
     98   1.1  maxv mm_vatopa(vaddr_t va)
     99   1.1  maxv {
    100   1.1  maxv 	return (PTE_BASE[pl1_i(va)] & PG_FRAME);
    101   1.1  maxv }
    102   1.1  maxv 
    103   1.8  maxv static void
    104   1.1  maxv mm_mprotect(vaddr_t startva, size_t size, int prot)
    105   1.1  maxv {
    106   1.1  maxv 	size_t i, npages;
    107   1.1  maxv 	vaddr_t va;
    108   1.1  maxv 	paddr_t pa;
    109   1.1  maxv 
    110   1.1  maxv 	ASSERT(size % PAGE_SIZE == 0);
    111   1.1  maxv 	npages = size / PAGE_SIZE;
    112   1.1  maxv 
    113   1.1  maxv 	for (i = 0; i < npages; i++) {
    114   1.1  maxv 		va = startva + i * PAGE_SIZE;
    115   1.1  maxv 		pa = (PTE_BASE[pl1_i(va)] & PG_FRAME);
    116   1.1  maxv 		mm_enter_pa(pa, va, prot);
    117   1.1  maxv 		mm_flush_va(va);
    118   1.1  maxv 	}
    119   1.1  maxv }
    120   1.1  maxv 
    121   1.8  maxv void
    122  1.13  maxv mm_bootspace_mprotect(void)
    123   1.8  maxv {
    124  1.10  maxv 	int prot;
    125  1.10  maxv 	size_t i;
    126  1.10  maxv 
    127  1.10  maxv 	/* Remap the kernel segments with proper permissions. */
    128  1.10  maxv 	for (i = 0; i < BTSPACE_NSEGS; i++) {
    129  1.10  maxv 		if (bootspace.segs[i].type == BTSEG_TEXT) {
    130  1.10  maxv 			prot = MM_PROT_READ|MM_PROT_EXECUTE;
    131  1.10  maxv 		} else if (bootspace.segs[i].type == BTSEG_RODATA) {
    132  1.10  maxv 			prot = MM_PROT_READ;
    133  1.10  maxv 		} else {
    134  1.10  maxv 			continue;
    135  1.10  maxv 		}
    136  1.10  maxv 		mm_mprotect(bootspace.segs[i].va, bootspace.segs[i].sz, prot);
    137  1.10  maxv 	}
    138   1.8  maxv 
    139   1.8  maxv 	print_state(true, "Segments protection updated");
    140   1.8  maxv }
    141   1.8  maxv 
    142   1.5  maxv static size_t
    143   1.5  maxv mm_nentries_range(vaddr_t startva, vaddr_t endva, size_t pgsz)
    144   1.5  maxv {
    145   1.5  maxv 	size_t npages;
    146   1.5  maxv 
    147   1.5  maxv 	npages = roundup((endva / PAGE_SIZE), (pgsz / PAGE_SIZE)) -
    148   1.5  maxv 	    rounddown((startva / PAGE_SIZE), (pgsz / PAGE_SIZE));
    149   1.5  maxv 	return (npages / (pgsz / PAGE_SIZE));
    150   1.5  maxv }
    151   1.5  maxv 
    152   1.1  maxv static void
    153   1.2  maxv mm_map_tree(vaddr_t startva, vaddr_t endva)
    154   1.1  maxv {
    155   1.5  maxv 	size_t i, nL4e, nL3e, nL2e;
    156   1.1  maxv 	size_t L4e_idx, L3e_idx, L2e_idx;
    157   1.3  maxv 	paddr_t pa;
    158   1.3  maxv 
    159   1.1  maxv 	/*
    160   1.3  maxv 	 * Build L4.
    161   1.1  maxv 	 */
    162   1.3  maxv 	L4e_idx = pl4_i(startva);
    163   1.5  maxv 	nL4e = mm_nentries_range(startva, endva, NBPD_L4);
    164   1.3  maxv 	ASSERT(L4e_idx == 511);
    165   1.2  maxv 	ASSERT(nL4e == 1);
    166   1.3  maxv 	if (!mm_pte_is_valid(L4_BASE[L4e_idx])) {
    167   1.3  maxv 		pa = mm_palloc(1);
    168   1.3  maxv 		L4_BASE[L4e_idx] = pa | PG_V | PG_RW;
    169   1.3  maxv 	}
    170   1.1  maxv 
    171   1.1  maxv 	/*
    172   1.3  maxv 	 * Build L3.
    173   1.1  maxv 	 */
    174   1.3  maxv 	L3e_idx = pl3_i(startva);
    175   1.5  maxv 	nL3e = mm_nentries_range(startva, endva, NBPD_L3);
    176   1.3  maxv 	for (i = 0; i < nL3e; i++) {
    177   1.3  maxv 		if (mm_pte_is_valid(L3_BASE[L3e_idx+i])) {
    178   1.3  maxv 			continue;
    179   1.3  maxv 		}
    180   1.3  maxv 		pa = mm_palloc(1);
    181   1.3  maxv 		L3_BASE[L3e_idx+i] = pa | PG_V | PG_RW;
    182   1.3  maxv 	}
    183   1.1  maxv 
    184   1.1  maxv 	/*
    185   1.3  maxv 	 * Build L2.
    186   1.1  maxv 	 */
    187   1.3  maxv 	L2e_idx = pl2_i(startva);
    188   1.5  maxv 	nL2e = mm_nentries_range(startva, endva, NBPD_L2);
    189   1.2  maxv 	for (i = 0; i < nL2e; i++) {
    190   1.3  maxv 		if (mm_pte_is_valid(L2_BASE[L2e_idx+i])) {
    191   1.3  maxv 			continue;
    192   1.3  maxv 		}
    193   1.3  maxv 		pa = mm_palloc(1);
    194   1.3  maxv 		L2_BASE[L2e_idx+i] = pa | PG_V | PG_RW;
    195   1.1  maxv 	}
    196   1.1  maxv }
    197   1.1  maxv 
    198   1.6  maxv static uint64_t
    199  1.13  maxv mm_rand_num64(void)
    200   1.6  maxv {
    201   1.6  maxv 	/* XXX: yes, this is ridiculous, will be fixed soon */
    202   1.6  maxv 	return rdtsc();
    203   1.6  maxv }
    204   1.6  maxv 
    205   1.6  maxv static void
    206  1.13  maxv mm_map_head(void)
    207   1.6  maxv {
    208   1.6  maxv 	size_t i, npages, size;
    209   1.6  maxv 	uint64_t rnd;
    210   1.6  maxv 	vaddr_t randva;
    211   1.6  maxv 
    212   1.6  maxv 	/*
    213   1.6  maxv 	 * To get the size of the head, we give a look at the read-only
    214   1.6  maxv 	 * mapping of the kernel we created in locore. We're identity mapped,
    215   1.6  maxv 	 * so kernpa = kernva.
    216   1.6  maxv 	 */
    217   1.6  maxv 	size = elf_get_head_size((vaddr_t)kernpa_start);
    218   1.6  maxv 	npages = size / PAGE_SIZE;
    219   1.6  maxv 
    220   1.6  maxv 	rnd = mm_rand_num64();
    221   1.6  maxv 	randva = rounddown(HEAD_WINDOW_BASE + rnd % (HEAD_WINDOW_SIZE - size),
    222   1.6  maxv 	    PAGE_SIZE);
    223   1.6  maxv 	mm_map_tree(randva, randva + size);
    224   1.6  maxv 
    225   1.6  maxv 	/* Enter the area and build the ELF info */
    226   1.6  maxv 	for (i = 0; i < npages; i++) {
    227   1.6  maxv 		mm_enter_pa(kernpa_start + i * PAGE_SIZE,
    228   1.6  maxv 		    randva + i * PAGE_SIZE, MM_PROT_READ|MM_PROT_WRITE);
    229   1.6  maxv 	}
    230   1.6  maxv 	elf_build_head(randva);
    231   1.6  maxv 
    232   1.6  maxv 	/* Register the values in bootspace */
    233   1.6  maxv 	bootspace.head.va = randva;
    234   1.6  maxv 	bootspace.head.pa = kernpa_start;
    235   1.6  maxv 	bootspace.head.sz = size;
    236   1.6  maxv }
    237   1.6  maxv 
    238   1.1  maxv static vaddr_t
    239   1.6  maxv mm_randva_kregion(size_t size)
    240   1.1  maxv {
    241  1.11  maxv 	vaddr_t sva, eva;
    242   1.1  maxv 	vaddr_t randva;
    243   1.1  maxv 	uint64_t rnd;
    244   1.6  maxv 	size_t i;
    245   1.6  maxv 	bool ok;
    246   1.6  maxv 
    247   1.6  maxv 	while (1) {
    248   1.6  maxv 		rnd = mm_rand_num64();
    249   1.6  maxv 		randva = rounddown(KASLR_WINDOW_BASE +
    250   1.6  maxv 		    rnd % (KASLR_WINDOW_SIZE - size), PAGE_SIZE);
    251   1.6  maxv 
    252   1.6  maxv 		/* Detect collisions */
    253   1.6  maxv 		ok = true;
    254  1.11  maxv 		for (i = 0; i < BTSPACE_NSEGS; i++) {
    255  1.11  maxv 			if (bootspace.segs[i].type == BTSEG_NONE) {
    256  1.11  maxv 				continue;
    257  1.11  maxv 			}
    258  1.11  maxv 			sva = bootspace.segs[i].va;
    259  1.11  maxv 			eva = sva + bootspace.segs[i].sz;
    260  1.11  maxv 
    261  1.11  maxv 			if ((sva <= randva) && (randva < eva)) {
    262   1.6  maxv 				ok = false;
    263   1.6  maxv 				break;
    264   1.6  maxv 			}
    265  1.11  maxv 			if ((sva < randva + size) && (randva + size <= eva)) {
    266   1.6  maxv 				ok = false;
    267   1.6  maxv 				break;
    268   1.6  maxv 			}
    269   1.6  maxv 		}
    270   1.6  maxv 		if (ok) {
    271   1.6  maxv 			break;
    272   1.6  maxv 		}
    273   1.6  maxv 	}
    274   1.1  maxv 
    275   1.2  maxv 	mm_map_tree(randva, randva + size);
    276   1.1  maxv 
    277   1.1  maxv 	return randva;
    278   1.1  maxv }
    279   1.1  maxv 
    280  1.10  maxv static paddr_t
    281  1.13  maxv bootspace_getend(void)
    282  1.10  maxv {
    283  1.10  maxv 	paddr_t pa, max = 0;
    284  1.10  maxv 	size_t i;
    285  1.10  maxv 
    286  1.10  maxv 	for (i = 0; i < BTSPACE_NSEGS; i++) {
    287  1.10  maxv 		if (bootspace.segs[i].type == BTSEG_NONE) {
    288  1.10  maxv 			continue;
    289  1.10  maxv 		}
    290  1.10  maxv 		pa = bootspace.segs[i].pa + bootspace.segs[i].sz;
    291  1.10  maxv 		if (pa > max)
    292  1.10  maxv 			max = pa;
    293  1.10  maxv 	}
    294  1.10  maxv 
    295  1.10  maxv 	return max;
    296  1.10  maxv }
    297  1.10  maxv 
    298  1.10  maxv static void
    299  1.10  maxv bootspace_addseg(int type, vaddr_t va, paddr_t pa, size_t sz)
    300  1.10  maxv {
    301  1.10  maxv 	size_t i;
    302  1.10  maxv 
    303  1.10  maxv 	for (i = 0; i < BTSPACE_NSEGS; i++) {
    304  1.10  maxv 		if (bootspace.segs[i].type == BTSEG_NONE) {
    305  1.10  maxv 			bootspace.segs[i].type = type;
    306  1.10  maxv 			bootspace.segs[i].va = va;
    307  1.10  maxv 			bootspace.segs[i].pa = pa;
    308  1.10  maxv 			bootspace.segs[i].sz = sz;
    309  1.10  maxv 			return;
    310  1.10  maxv 		}
    311  1.10  maxv 	}
    312  1.10  maxv 
    313  1.10  maxv 	fatal("bootspace_addseg: segments full");
    314  1.10  maxv }
    315  1.10  maxv 
    316  1.12  maxv vaddr_t
    317  1.12  maxv mm_map_segment(int segtype, paddr_t pa, size_t elfsz)
    318   1.1  maxv {
    319  1.12  maxv 	size_t i, npages, size;
    320   1.6  maxv 	vaddr_t randva;
    321  1.12  maxv 	char pad;
    322   1.6  maxv 
    323   1.9  maxv 	size = roundup(elfsz, PAGE_SIZE);
    324   1.6  maxv 	randva = mm_randva_kregion(size);
    325   1.6  maxv 	npages = size / PAGE_SIZE;
    326   1.6  maxv 
    327   1.6  maxv 	for (i = 0; i < npages; i++) {
    328   1.6  maxv 		mm_enter_pa(pa + i * PAGE_SIZE,
    329   1.6  maxv 		    randva + i * PAGE_SIZE, MM_PROT_READ|MM_PROT_WRITE);
    330   1.6  maxv 	}
    331   1.6  maxv 
    332  1.12  maxv 	if (segtype == BTSEG_TEXT) {
    333  1.12  maxv 		pad = PAD_TEXT;
    334  1.12  maxv 	} else if (segtype == BTSEG_RODATA) {
    335  1.12  maxv 		pad = PAD_RODATA;
    336  1.12  maxv 	} else {
    337  1.12  maxv 		pad = PAD_DATA;
    338   1.6  maxv 	}
    339  1.12  maxv 	memset((void *)(randva + elfsz), pad, size - elfsz);
    340   1.6  maxv 
    341  1.12  maxv 	bootspace_addseg(segtype, randva, pa, size);
    342   1.9  maxv 
    343  1.12  maxv 	return randva;
    344   1.6  maxv }
    345   1.6  maxv 
    346   1.6  maxv static void
    347  1.13  maxv mm_map_boot(void)
    348   1.6  maxv {
    349   1.6  maxv 	size_t i, npages, size;
    350   1.6  maxv 	vaddr_t randva;
    351   1.6  maxv 	paddr_t bootpa;
    352   1.6  maxv 
    353   1.6  maxv 	/*
    354   1.6  maxv 	 * The "boot" region is special: its page tree has a fixed size, but
    355   1.6  maxv 	 * the number of pages entered is lower.
    356   1.6  maxv 	 */
    357   1.6  maxv 
    358   1.6  maxv 	/* Create the page tree */
    359   1.6  maxv 	size = (NKL2_KIMG_ENTRIES + 1) * NBPD_L2;
    360   1.6  maxv 	randva = mm_randva_kregion(size);
    361   1.6  maxv 
    362   1.6  maxv 	/* Enter the area and build the ELF info */
    363  1.10  maxv 	bootpa = bootspace_getend();
    364   1.6  maxv 	size = (pa_avail - bootpa);
    365   1.6  maxv 	npages = size / PAGE_SIZE;
    366   1.6  maxv 	for (i = 0; i < npages; i++) {
    367   1.6  maxv 		mm_enter_pa(bootpa + i * PAGE_SIZE,
    368   1.6  maxv 		    randva + i * PAGE_SIZE, MM_PROT_READ|MM_PROT_WRITE);
    369   1.1  maxv 	}
    370   1.6  maxv 	elf_build_boot(randva, bootpa);
    371   1.1  maxv 
    372   1.1  maxv 	/* Enter the ISA I/O MEM */
    373   1.6  maxv 	iom_base = randva + npages * PAGE_SIZE;
    374   1.1  maxv 	npages = IOM_SIZE / PAGE_SIZE;
    375   1.1  maxv 	for (i = 0; i < npages; i++) {
    376   1.1  maxv 		mm_enter_pa(IOM_BEGIN + i * PAGE_SIZE,
    377   1.1  maxv 		    iom_base + i * PAGE_SIZE, MM_PROT_READ|MM_PROT_WRITE);
    378   1.1  maxv 	}
    379   1.1  maxv 
    380   1.6  maxv 	/* Register the values in bootspace */
    381   1.6  maxv 	bootspace.boot.va = randva;
    382   1.6  maxv 	bootspace.boot.pa = bootpa;
    383   1.6  maxv 	bootspace.boot.sz = (size_t)(iom_base + IOM_SIZE) -
    384   1.6  maxv 	    (size_t)bootspace.boot.va;
    385   1.6  maxv 
    386   1.6  maxv 	/* Initialize the values that are located in the "boot" region */
    387   1.6  maxv 	extern uint64_t PDPpaddr;
    388   1.6  maxv 	bootspace.spareva = bootspace.boot.va + NKL2_KIMG_ENTRIES * NBPD_L2;
    389   1.6  maxv 	bootspace.pdir = bootspace.boot.va + (PDPpaddr - bootspace.boot.pa);
    390   1.6  maxv 	bootspace.emodule = bootspace.boot.va + NKL2_KIMG_ENTRIES * NBPD_L2;
    391   1.1  maxv }
    392   1.6  maxv 
    393   1.6  maxv /*
    394   1.6  maxv  * There are five independent regions: head, text, rodata, data, boot. They are
    395   1.6  maxv  * all mapped at random VAs.
    396   1.6  maxv  *
    397   1.6  maxv  * Head contains the ELF Header and ELF Section Headers, and we use them to
    398   1.6  maxv  * map the rest of the regions. Head must be placed in memory *before* the
    399   1.6  maxv  * other regions.
    400   1.6  maxv  *
    401   1.6  maxv  * At the end of this function, the bootspace structure is fully constructed.
    402   1.6  maxv  */
    403   1.6  maxv void
    404  1.13  maxv mm_map_kernel(void)
    405   1.6  maxv {
    406   1.6  maxv 	memset(&bootspace, 0, sizeof(bootspace));
    407   1.6  maxv 	mm_map_head();
    408   1.7  maxv 	print_state(true, "Head region mapped");
    409  1.12  maxv 	elf_map_sections();
    410   1.7  maxv 	print_state(true, "Segments mapped");
    411   1.6  maxv 	mm_map_boot();
    412   1.7  maxv 	print_state(true, "Boot region mapped");
    413   1.6  maxv }
    414