loadfile_machdep.c revision 1.2.12.3 1 1.2.12.3 yamt /* $NetBSD: loadfile_machdep.c,v 1.2.12.3 2007/09/03 14:30:09 yamt Exp $ */
2 1.2.12.2 yamt
3 1.2.12.2 yamt /*-
4 1.2.12.2 yamt * Copyright (c) 2005 The NetBSD Foundation, Inc.
5 1.2.12.2 yamt * All rights reserved.
6 1.2.12.2 yamt *
7 1.2.12.2 yamt * This work is based on the code contributed by Robert Drehmel to the
8 1.2.12.2 yamt * FreeBSD project.
9 1.2.12.2 yamt *
10 1.2.12.2 yamt * Redistribution and use in source and binary forms, with or without
11 1.2.12.2 yamt * modification, are permitted provided that the following conditions
12 1.2.12.2 yamt * are met:
13 1.2.12.2 yamt * 1. Redistributions of source code must retain the above copyright
14 1.2.12.2 yamt * notice, this list of conditions and the following disclaimer.
15 1.2.12.2 yamt * 2. Redistributions in binary form must reproduce the above copyright
16 1.2.12.2 yamt * notice, this list of conditions and the following disclaimer in the
17 1.2.12.2 yamt * documentation and/or other materials provided with the distribution.
18 1.2.12.2 yamt * 3. All advertising materials mentioning features or use of this software
19 1.2.12.2 yamt * must display the following acknowledgement:
20 1.2.12.2 yamt * This product includes software developed by the NetBSD
21 1.2.12.2 yamt * Foundation, Inc. and its contributors.
22 1.2.12.2 yamt * 4. Neither the name of The NetBSD Foundation nor the names of its
23 1.2.12.2 yamt * contributors may be used to endorse or promote products derived
24 1.2.12.2 yamt * from this software without specific prior written permission.
25 1.2.12.2 yamt *
26 1.2.12.2 yamt * THIS SOFTWARE IS PROVIDED BY THE NETBSD FOUNDATION, INC. AND CONTRIBUTORS
27 1.2.12.2 yamt * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED
28 1.2.12.2 yamt * TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
29 1.2.12.2 yamt * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE FOUNDATION OR CONTRIBUTORS
30 1.2.12.2 yamt * BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
31 1.2.12.2 yamt * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
32 1.2.12.2 yamt * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
33 1.2.12.2 yamt * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
34 1.2.12.2 yamt * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
35 1.2.12.2 yamt * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
36 1.2.12.2 yamt * POSSIBILITY OF SUCH DAMAGE.
37 1.2.12.2 yamt */
38 1.2.12.2 yamt
39 1.2.12.2 yamt #include <lib/libsa/stand.h>
40 1.2.12.2 yamt
41 1.2.12.2 yamt #include <machine/pte.h>
42 1.2.12.2 yamt #include <machine/cpu.h>
43 1.2.12.2 yamt #include <machine/ctlreg.h>
44 1.2.12.2 yamt #include <machine/vmparam.h>
45 1.2.12.2 yamt #include <machine/promlib.h>
46 1.2.12.2 yamt
47 1.2.12.2 yamt #include "boot.h"
48 1.2.12.2 yamt #include "openfirm.h"
49 1.2.12.2 yamt
50 1.2.12.2 yamt
51 1.2.12.2 yamt #define MAXSEGNUM 50
52 1.2.12.2 yamt #define hi(val) ((uint32_t)(((val) >> 32) & (uint32_t)-1))
53 1.2.12.2 yamt #define lo(val) ((uint32_t)((val) & (uint32_t)-1))
54 1.2.12.2 yamt
55 1.2.12.2 yamt #define roundup2(x, y) (((x)+((y)-1))&(~((y)-1)))
56 1.2.12.2 yamt
57 1.2.12.2 yamt
58 1.2.12.2 yamt typedef int phandle_t;
59 1.2.12.2 yamt
60 1.2.12.2 yamt extern void itlb_enter(vaddr_t, uint32_t, uint32_t);
61 1.2.12.2 yamt extern void dtlb_enter(vaddr_t, uint32_t, uint32_t);
62 1.2.12.3 yamt extern void dtlb_replace(vaddr_t, uint32_t, uint32_t);
63 1.2.12.2 yamt extern vaddr_t itlb_va_to_pa(vaddr_t);
64 1.2.12.2 yamt extern vaddr_t dtlb_va_to_pa(vaddr_t);
65 1.2.12.2 yamt
66 1.2.12.2 yamt static void tlb_init(void);
67 1.2.12.2 yamt
68 1.2.12.2 yamt static int mmu_mapin(vaddr_t, vsize_t);
69 1.2.12.2 yamt static ssize_t mmu_read(int, void *, size_t);
70 1.2.12.2 yamt static void* mmu_memcpy(void *, const void *, size_t);
71 1.2.12.2 yamt static void* mmu_memset(void *, int, size_t);
72 1.2.12.2 yamt static void mmu_freeall(void);
73 1.2.12.2 yamt
74 1.2.12.2 yamt static int ofw_mapin(vaddr_t, vsize_t);
75 1.2.12.2 yamt static ssize_t ofw_read(int, void *, size_t);
76 1.2.12.2 yamt static void* ofw_memcpy(void *, const void *, size_t);
77 1.2.12.2 yamt static void* ofw_memset(void *, int, size_t);
78 1.2.12.2 yamt static void ofw_freeall(void);
79 1.2.12.2 yamt
80 1.2.12.2 yamt static int nop_mapin(vaddr_t, vsize_t);
81 1.2.12.2 yamt static ssize_t nop_read(int, void *, size_t);
82 1.2.12.2 yamt static void* nop_memcpy(void *, const void *, size_t);
83 1.2.12.2 yamt static void* nop_memset(void *, int, size_t);
84 1.2.12.2 yamt static void nop_freeall(void);
85 1.2.12.2 yamt
86 1.2.12.2 yamt
87 1.2.12.2 yamt struct tlb_entry *dtlb_store = 0;
88 1.2.12.2 yamt struct tlb_entry *itlb_store = 0;
89 1.2.12.2 yamt
90 1.2.12.2 yamt int dtlb_slot;
91 1.2.12.2 yamt int itlb_slot;
92 1.2.12.2 yamt int dtlb_slot_max;
93 1.2.12.2 yamt int itlb_slot_max;
94 1.2.12.2 yamt
95 1.2.12.2 yamt static struct kvamap {
96 1.2.12.2 yamt uint64_t start;
97 1.2.12.2 yamt uint64_t end;
98 1.2.12.2 yamt } kvamap[MAXSEGNUM];
99 1.2.12.2 yamt
100 1.2.12.2 yamt static struct memsw {
101 1.2.12.2 yamt ssize_t (* read)(int f, void *addr, size_t size);
102 1.2.12.2 yamt void* (* memcpy)(void *dst, const void *src, size_t size);
103 1.2.12.2 yamt void* (* memset)(void *dst, int c, size_t size);
104 1.2.12.2 yamt void (* freeall)(void);
105 1.2.12.2 yamt } memswa[] = {
106 1.2.12.2 yamt { nop_read, nop_memcpy, nop_memset, nop_freeall },
107 1.2.12.2 yamt { ofw_read, ofw_memcpy, ofw_memset, ofw_freeall },
108 1.2.12.2 yamt { mmu_read, mmu_memcpy, mmu_memset, mmu_freeall }
109 1.2.12.2 yamt };
110 1.2.12.2 yamt
111 1.2.12.2 yamt static struct memsw *memsw = &memswa[0];
112 1.2.12.2 yamt
113 1.2.12.2 yamt
114 1.2.12.2 yamt /*
115 1.2.12.2 yamt * Check if a memory region is already mapped. Return length and virtual
116 1.2.12.2 yamt * address of unmapped sub-region, if any.
117 1.2.12.2 yamt */
118 1.2.12.2 yamt static uint64_t
119 1.2.12.2 yamt kvamap_extract(vaddr_t va, vsize_t len, vaddr_t *new_va)
120 1.2.12.2 yamt {
121 1.2.12.2 yamt int i;
122 1.2.12.2 yamt
123 1.2.12.2 yamt *new_va = va;
124 1.2.12.2 yamt for (i = 0; (len > 0) && (i < MAXSEGNUM); i++) {
125 1.2.12.2 yamt if (kvamap[i].start == NULL)
126 1.2.12.2 yamt break;
127 1.2.12.2 yamt if ((kvamap[i].start <= va) && (va < kvamap[i].end)) {
128 1.2.12.2 yamt uint64_t va_len = kvamap[i].end - va + kvamap[i].start;
129 1.2.12.2 yamt len = (va_len < len) ? len - va_len : 0;
130 1.2.12.2 yamt *new_va = kvamap[i].end;
131 1.2.12.2 yamt }
132 1.2.12.2 yamt }
133 1.2.12.2 yamt
134 1.2.12.2 yamt return (len);
135 1.2.12.2 yamt }
136 1.2.12.2 yamt
137 1.2.12.2 yamt /*
138 1.2.12.2 yamt * Record new kernel mapping.
139 1.2.12.2 yamt */
140 1.2.12.2 yamt static void
141 1.2.12.2 yamt kvamap_enter(uint64_t va, uint64_t len)
142 1.2.12.2 yamt {
143 1.2.12.2 yamt int i;
144 1.2.12.2 yamt
145 1.2.12.2 yamt DPRINTF(("kvamap_enter: %d@%p\n", (int)len, (void*)(u_long)va));
146 1.2.12.2 yamt for (i = 0; (len > 0) && (i < MAXSEGNUM); i++) {
147 1.2.12.2 yamt if (kvamap[i].start == NULL) {
148 1.2.12.2 yamt kvamap[i].start = va;
149 1.2.12.2 yamt kvamap[i].end = va + len;
150 1.2.12.2 yamt break;
151 1.2.12.2 yamt }
152 1.2.12.2 yamt }
153 1.2.12.2 yamt
154 1.2.12.2 yamt if (i == MAXSEGNUM) {
155 1.2.12.2 yamt panic("Too many allocations requested.");
156 1.2.12.2 yamt }
157 1.2.12.2 yamt }
158 1.2.12.2 yamt
159 1.2.12.2 yamt /*
160 1.2.12.2 yamt * Initialize TLB as required by MMU mapping functions.
161 1.2.12.2 yamt */
162 1.2.12.2 yamt static void
163 1.2.12.2 yamt tlb_init(void)
164 1.2.12.2 yamt {
165 1.2.12.2 yamt phandle_t child;
166 1.2.12.2 yamt phandle_t root;
167 1.2.12.2 yamt char buf[128];
168 1.2.12.2 yamt u_int bootcpu;
169 1.2.12.2 yamt u_int cpu;
170 1.2.12.2 yamt
171 1.2.12.2 yamt if (dtlb_store != NULL) {
172 1.2.12.2 yamt return;
173 1.2.12.2 yamt }
174 1.2.12.2 yamt
175 1.2.12.2 yamt bootcpu = get_cpuid();
176 1.2.12.2 yamt
177 1.2.12.2 yamt if ( (root = prom_findroot()) == -1) {
178 1.2.12.2 yamt panic("tlb_init: prom_findroot()");
179 1.2.12.2 yamt }
180 1.2.12.2 yamt
181 1.2.12.2 yamt for (child = prom_firstchild(root); child != 0;
182 1.2.12.2 yamt child = prom_nextsibling(child)) {
183 1.2.12.2 yamt if (child == -1) {
184 1.2.12.2 yamt panic("tlb_init: OF_child");
185 1.2.12.2 yamt }
186 1.2.12.2 yamt if (_prom_getprop(child, "device_type", buf, sizeof(buf)) > 0 &&
187 1.2.12.2 yamt strcmp(buf, "cpu") == 0) {
188 1.2.12.2 yamt if (_prom_getprop(child, "upa-portid", &cpu,
189 1.2.12.2 yamt sizeof(cpu)) == -1 && _prom_getprop(child, "portid",
190 1.2.12.2 yamt &cpu, sizeof(cpu)) == -1)
191 1.2.12.2 yamt panic("main: prom_getprop");
192 1.2.12.2 yamt if (cpu == bootcpu)
193 1.2.12.2 yamt break;
194 1.2.12.2 yamt }
195 1.2.12.2 yamt }
196 1.2.12.2 yamt if (cpu != bootcpu)
197 1.2.12.2 yamt panic("init_tlb: no node for bootcpu?!?!");
198 1.2.12.2 yamt if (_prom_getprop(child, "#dtlb-entries", &dtlb_slot_max,
199 1.2.12.2 yamt sizeof(dtlb_slot_max)) == -1 ||
200 1.2.12.2 yamt _prom_getprop(child, "#itlb-entries", &itlb_slot_max,
201 1.2.12.2 yamt sizeof(itlb_slot_max)) == -1)
202 1.2.12.2 yamt panic("init_tlb: prom_getprop");
203 1.2.12.2 yamt dtlb_store = alloc(dtlb_slot_max * sizeof(*dtlb_store));
204 1.2.12.2 yamt itlb_store = alloc(itlb_slot_max * sizeof(*itlb_store));
205 1.2.12.2 yamt if (dtlb_store == NULL || itlb_store == NULL) {
206 1.2.12.2 yamt panic("init_tlb: malloc");
207 1.2.12.2 yamt }
208 1.2.12.2 yamt
209 1.2.12.2 yamt dtlb_slot = itlb_slot = 0;
210 1.2.12.2 yamt }
211 1.2.12.2 yamt
212 1.2.12.2 yamt /*
213 1.2.12.2 yamt * Map requested memory region with permanent 4MB pages.
214 1.2.12.2 yamt */
215 1.2.12.2 yamt static int
216 1.2.12.2 yamt mmu_mapin(vaddr_t rva, vsize_t len)
217 1.2.12.2 yamt {
218 1.2.12.2 yamt int64_t data;
219 1.2.12.2 yamt vaddr_t va, pa, mva;
220 1.2.12.2 yamt
221 1.2.12.2 yamt len = roundup2(len + (rva & PAGE_MASK_4M), PAGE_SIZE_4M);
222 1.2.12.2 yamt rva &= ~PAGE_MASK_4M;
223 1.2.12.2 yamt
224 1.2.12.2 yamt tlb_init();
225 1.2.12.2 yamt for (pa = (vaddr_t)-1; len > 0; rva = va) {
226 1.2.12.2 yamt if ( (len = kvamap_extract(rva, len, &va)) == 0) {
227 1.2.12.2 yamt /* The rest is already mapped */
228 1.2.12.2 yamt break;
229 1.2.12.2 yamt }
230 1.2.12.2 yamt
231 1.2.12.2 yamt if (dtlb_va_to_pa(va) == (u_long)-1 ||
232 1.2.12.2 yamt itlb_va_to_pa(va) == (u_long)-1) {
233 1.2.12.2 yamt /* Allocate a physical page, claim the virtual area */
234 1.2.12.2 yamt if (pa == (vaddr_t)-1) {
235 1.2.12.2 yamt pa = (vaddr_t)OF_alloc_phys(PAGE_SIZE_4M,
236 1.2.12.2 yamt PAGE_SIZE_4M);
237 1.2.12.2 yamt if (pa == (vaddr_t)-1)
238 1.2.12.2 yamt panic("out of memory");
239 1.2.12.2 yamt mva = (vaddr_t)OF_claim_virt(va,
240 1.2.12.2 yamt PAGE_SIZE_4M, 0);
241 1.2.12.2 yamt if (mva != va) {
242 1.2.12.2 yamt panic("can't claim virtual page "
243 1.2.12.2 yamt "(wanted %#lx, got %#lx)",
244 1.2.12.2 yamt va, mva);
245 1.2.12.2 yamt }
246 1.2.12.2 yamt /* The mappings may have changed, be paranoid. */
247 1.2.12.2 yamt continue;
248 1.2.12.2 yamt }
249 1.2.12.2 yamt
250 1.2.12.2 yamt /*
251 1.2.12.2 yamt * Actually, we can only allocate two pages less at
252 1.2.12.2 yamt * most (depending on the kernel TSB size).
253 1.2.12.2 yamt */
254 1.2.12.2 yamt if (dtlb_slot >= dtlb_slot_max)
255 1.2.12.2 yamt panic("mmu_mapin: out of dtlb_slots");
256 1.2.12.2 yamt if (itlb_slot >= itlb_slot_max)
257 1.2.12.2 yamt panic("mmu_mapin: out of itlb_slots");
258 1.2.12.2 yamt
259 1.2.12.2 yamt DPRINTF(("mmu_mapin: %p:%p\n", va, pa));
260 1.2.12.2 yamt
261 1.2.12.2 yamt data = TSB_DATA(0, /* global */
262 1.2.12.2 yamt PGSZ_4M, /* 4mb page */
263 1.2.12.2 yamt pa, /* phys.address */
264 1.2.12.2 yamt 1, /* privileged */
265 1.2.12.2 yamt 1, /* write */
266 1.2.12.2 yamt 1, /* cache */
267 1.2.12.2 yamt 1, /* alias */
268 1.2.12.2 yamt 1, /* valid */
269 1.2.12.2 yamt 0 /* endianness */
270 1.2.12.2 yamt );
271 1.2.12.2 yamt data |= TLB_L | TLB_CV; /* locked, virt.cache */
272 1.2.12.2 yamt
273 1.2.12.2 yamt dtlb_store[dtlb_slot].te_pa = pa;
274 1.2.12.2 yamt dtlb_store[dtlb_slot].te_va = va;
275 1.2.12.2 yamt dtlb_slot++;
276 1.2.12.2 yamt dtlb_enter(va, hi(data), lo(data));
277 1.2.12.2 yamt pa = (vaddr_t)-1;
278 1.2.12.2 yamt }
279 1.2.12.2 yamt
280 1.2.12.2 yamt kvamap_enter(va, PAGE_SIZE_4M);
281 1.2.12.2 yamt
282 1.2.12.2 yamt len -= len > PAGE_SIZE_4M ? PAGE_SIZE_4M : len;
283 1.2.12.2 yamt va += PAGE_SIZE_4M;
284 1.2.12.2 yamt }
285 1.2.12.2 yamt
286 1.2.12.2 yamt if (pa != (vaddr_t)-1) {
287 1.2.12.2 yamt OF_free_phys(pa, PAGE_SIZE_4M);
288 1.2.12.2 yamt }
289 1.2.12.2 yamt
290 1.2.12.2 yamt return (0);
291 1.2.12.2 yamt }
292 1.2.12.2 yamt
293 1.2.12.2 yamt static ssize_t
294 1.2.12.2 yamt mmu_read(int f, void *addr, size_t size)
295 1.2.12.2 yamt {
296 1.2.12.2 yamt mmu_mapin((vaddr_t)addr, size);
297 1.2.12.2 yamt return read(f, addr, size);
298 1.2.12.2 yamt }
299 1.2.12.2 yamt
300 1.2.12.2 yamt static void*
301 1.2.12.2 yamt mmu_memcpy(void *dst, const void *src, size_t size)
302 1.2.12.2 yamt {
303 1.2.12.2 yamt mmu_mapin((vaddr_t)dst, size);
304 1.2.12.2 yamt return memcpy(dst, src, size);
305 1.2.12.2 yamt }
306 1.2.12.2 yamt
307 1.2.12.2 yamt static void*
308 1.2.12.2 yamt mmu_memset(void *dst, int c, size_t size)
309 1.2.12.2 yamt {
310 1.2.12.2 yamt mmu_mapin((vaddr_t)dst, size);
311 1.2.12.2 yamt return memset(dst, c, size);
312 1.2.12.2 yamt }
313 1.2.12.2 yamt
314 1.2.12.2 yamt static void
315 1.2.12.2 yamt mmu_freeall(void)
316 1.2.12.2 yamt {
317 1.2.12.2 yamt int i;
318 1.2.12.2 yamt
319 1.2.12.2 yamt dtlb_slot = itlb_slot = 0;
320 1.2.12.2 yamt for (i = 0; i < MAXSEGNUM; i++) {
321 1.2.12.2 yamt /* XXX return all mappings to PROM and unmap the pages! */
322 1.2.12.2 yamt kvamap[i].start = kvamap[i].end = 0;
323 1.2.12.2 yamt }
324 1.2.12.2 yamt }
325 1.2.12.2 yamt
326 1.2.12.2 yamt /*
327 1.2.12.2 yamt * Claim requested memory region in OpenFirmware allocation pool.
328 1.2.12.2 yamt */
329 1.2.12.2 yamt static int
330 1.2.12.2 yamt ofw_mapin(vaddr_t rva, vsize_t len)
331 1.2.12.2 yamt {
332 1.2.12.2 yamt vaddr_t va;
333 1.2.12.2 yamt
334 1.2.12.2 yamt len = roundup2(len + (rva & PAGE_MASK_4M), PAGE_SIZE_4M);
335 1.2.12.2 yamt rva &= ~PAGE_MASK_4M;
336 1.2.12.2 yamt
337 1.2.12.2 yamt if ( (len = kvamap_extract(rva, len, &va)) != 0) {
338 1.2.12.2 yamt if (OF_claim((void *)(long)va, len, PAGE_SIZE_4M) == (void*)-1){
339 1.2.12.2 yamt panic("ofw_mapin: Cannot claim memory.");
340 1.2.12.2 yamt }
341 1.2.12.2 yamt kvamap_enter(va, len);
342 1.2.12.2 yamt }
343 1.2.12.2 yamt
344 1.2.12.2 yamt return (0);
345 1.2.12.2 yamt }
346 1.2.12.2 yamt
347 1.2.12.2 yamt static ssize_t
348 1.2.12.2 yamt ofw_read(int f, void *addr, size_t size)
349 1.2.12.2 yamt {
350 1.2.12.2 yamt ofw_mapin((vaddr_t)addr, size);
351 1.2.12.2 yamt return read(f, addr, size);
352 1.2.12.2 yamt }
353 1.2.12.2 yamt
354 1.2.12.2 yamt static void*
355 1.2.12.2 yamt ofw_memcpy(void *dst, const void *src, size_t size)
356 1.2.12.2 yamt {
357 1.2.12.2 yamt ofw_mapin((vaddr_t)dst, size);
358 1.2.12.2 yamt return memcpy(dst, src, size);
359 1.2.12.2 yamt }
360 1.2.12.2 yamt
361 1.2.12.2 yamt static void*
362 1.2.12.2 yamt ofw_memset(void *dst, int c, size_t size)
363 1.2.12.2 yamt {
364 1.2.12.2 yamt ofw_mapin((vaddr_t)dst, size);
365 1.2.12.2 yamt return memset(dst, c, size);
366 1.2.12.2 yamt }
367 1.2.12.2 yamt
368 1.2.12.2 yamt static void
369 1.2.12.2 yamt ofw_freeall(void)
370 1.2.12.2 yamt {
371 1.2.12.2 yamt int i;
372 1.2.12.2 yamt
373 1.2.12.2 yamt dtlb_slot = itlb_slot = 0;
374 1.2.12.2 yamt for (i = 0; i < MAXSEGNUM; i++) {
375 1.2.12.2 yamt OF_release((void*)(u_long)kvamap[i].start,
376 1.2.12.2 yamt (u_int)(kvamap[i].end - kvamap[i].start));
377 1.2.12.2 yamt kvamap[i].start = kvamap[i].end = 0;
378 1.2.12.2 yamt }
379 1.2.12.2 yamt }
380 1.2.12.2 yamt
381 1.2.12.2 yamt /*
382 1.2.12.2 yamt * NOP implementation exists solely for kernel header loading sake. Here
383 1.2.12.2 yamt * we use alloc() interface to allocate memory and avoid doing some dangerous
384 1.2.12.2 yamt * things.
385 1.2.12.2 yamt */
386 1.2.12.2 yamt static ssize_t
387 1.2.12.2 yamt nop_read(int f, void *addr, size_t size)
388 1.2.12.2 yamt {
389 1.2.12.2 yamt return read(f, addr, size);
390 1.2.12.2 yamt }
391 1.2.12.2 yamt
392 1.2.12.2 yamt static void*
393 1.2.12.2 yamt nop_memcpy(void *dst, const void *src, size_t size)
394 1.2.12.2 yamt {
395 1.2.12.2 yamt /*
396 1.2.12.2 yamt * Real NOP to make LOAD_HDR work: loadfile_elfXX copies ELF headers
397 1.2.12.2 yamt * right after the highest kernel address which will not be mapped with
398 1.2.12.2 yamt * nop_XXX operations.
399 1.2.12.2 yamt */
400 1.2.12.2 yamt return (dst);
401 1.2.12.2 yamt }
402 1.2.12.2 yamt
403 1.2.12.2 yamt static void*
404 1.2.12.2 yamt nop_memset(void *dst, int c, size_t size)
405 1.2.12.2 yamt {
406 1.2.12.2 yamt return memset(dst, c, size);
407 1.2.12.2 yamt }
408 1.2.12.2 yamt
409 1.2.12.2 yamt static void
410 1.2.12.2 yamt nop_freeall(void)
411 1.2.12.2 yamt { }
412 1.2.12.2 yamt
413 1.2.12.2 yamt /*
414 1.2.12.2 yamt * loadfile() hooks.
415 1.2.12.2 yamt */
416 1.2.12.2 yamt ssize_t
417 1.2.12.2 yamt sparc64_read(int f, void *addr, size_t size)
418 1.2.12.2 yamt {
419 1.2.12.2 yamt return (*memsw->read)(f, addr, size);
420 1.2.12.2 yamt }
421 1.2.12.2 yamt
422 1.2.12.2 yamt void*
423 1.2.12.2 yamt sparc64_memcpy(void *dst, const void *src, size_t size)
424 1.2.12.2 yamt {
425 1.2.12.2 yamt return (*memsw->memcpy)(dst, src, size);
426 1.2.12.2 yamt }
427 1.2.12.2 yamt
428 1.2.12.2 yamt void*
429 1.2.12.2 yamt sparc64_memset(void *dst, int c, size_t size)
430 1.2.12.2 yamt {
431 1.2.12.2 yamt return (*memsw->memset)(dst, c, size);
432 1.2.12.2 yamt }
433 1.2.12.2 yamt
434 1.2.12.2 yamt /*
435 1.2.12.3 yamt * Remove write permissions from text mappings in the dTLB.
436 1.2.12.3 yamt * Add entries in the iTLB.
437 1.2.12.3 yamt */
438 1.2.12.3 yamt void
439 1.2.12.3 yamt sparc64_finalize_tlb(u_long data_va)
440 1.2.12.3 yamt {
441 1.2.12.3 yamt int i;
442 1.2.12.3 yamt int64_t data;
443 1.2.12.3 yamt
444 1.2.12.3 yamt for (i = 0; i < dtlb_slot; i++) {
445 1.2.12.3 yamt if (dtlb_store[i].te_va >= data_va)
446 1.2.12.3 yamt continue;
447 1.2.12.3 yamt
448 1.2.12.3 yamt data = TSB_DATA(0, /* global */
449 1.2.12.3 yamt PGSZ_4M, /* 4mb page */
450 1.2.12.3 yamt dtlb_store[i].te_pa, /* phys.address */
451 1.2.12.3 yamt 1, /* privileged */
452 1.2.12.3 yamt 0, /* write */
453 1.2.12.3 yamt 1, /* cache */
454 1.2.12.3 yamt 1, /* alias */
455 1.2.12.3 yamt 1, /* valid */
456 1.2.12.3 yamt 0 /* endianness */
457 1.2.12.3 yamt );
458 1.2.12.3 yamt data |= TLB_L | TLB_CV; /* locked, virt.cache */
459 1.2.12.3 yamt dtlb_replace(dtlb_store[i].te_va, hi(data), lo(data));
460 1.2.12.3 yamt itlb_store[itlb_slot] = dtlb_store[i];
461 1.2.12.3 yamt itlb_slot++;
462 1.2.12.3 yamt itlb_enter(dtlb_store[i].te_va, hi(data), lo(data));
463 1.2.12.3 yamt }
464 1.2.12.3 yamt }
465 1.2.12.3 yamt
466 1.2.12.3 yamt /*
467 1.2.12.2 yamt * Record kernel mappings in bootinfo structure.
468 1.2.12.2 yamt */
469 1.2.12.2 yamt void
470 1.2.12.2 yamt sparc64_bi_add(void)
471 1.2.12.2 yamt {
472 1.2.12.2 yamt int i;
473 1.2.12.2 yamt int itlb_size, dtlb_size;
474 1.2.12.2 yamt struct btinfo_count bi_count;
475 1.2.12.2 yamt struct btinfo_tlb *bi_itlb, *bi_dtlb;
476 1.2.12.2 yamt
477 1.2.12.2 yamt bi_count.count = itlb_slot;
478 1.2.12.2 yamt bi_add(&bi_count, BTINFO_ITLB_SLOTS, sizeof(bi_count));
479 1.2.12.2 yamt bi_count.count = dtlb_slot;
480 1.2.12.2 yamt bi_add(&bi_count, BTINFO_DTLB_SLOTS, sizeof(bi_count));
481 1.2.12.2 yamt
482 1.2.12.2 yamt itlb_size = sizeof(*bi_itlb) + sizeof(struct tlb_entry) * itlb_slot;
483 1.2.12.2 yamt dtlb_size = sizeof(*bi_dtlb) + sizeof(struct tlb_entry) * dtlb_slot;
484 1.2.12.2 yamt
485 1.2.12.2 yamt bi_itlb = alloc(itlb_size);
486 1.2.12.2 yamt bi_dtlb = alloc(dtlb_size);
487 1.2.12.2 yamt
488 1.2.12.2 yamt if ((bi_itlb == NULL) || (bi_dtlb == NULL)) {
489 1.2.12.2 yamt panic("Out of memory in sparc64_bi_add.\n");
490 1.2.12.2 yamt }
491 1.2.12.2 yamt
492 1.2.12.2 yamt for (i = 0; i < itlb_slot; i++) {
493 1.2.12.2 yamt bi_itlb->tlb[i].te_va = itlb_store[i].te_va;
494 1.2.12.2 yamt bi_itlb->tlb[i].te_pa = itlb_store[i].te_pa;
495 1.2.12.2 yamt }
496 1.2.12.2 yamt bi_add(bi_itlb, BTINFO_ITLB, itlb_size);
497 1.2.12.2 yamt
498 1.2.12.2 yamt for (i = 0; i < dtlb_slot; i++) {
499 1.2.12.2 yamt bi_dtlb->tlb[i].te_va = dtlb_store[i].te_va;
500 1.2.12.2 yamt bi_dtlb->tlb[i].te_pa = dtlb_store[i].te_pa;
501 1.2.12.2 yamt }
502 1.2.12.2 yamt bi_add(bi_dtlb, BTINFO_DTLB, dtlb_size);
503 1.2.12.2 yamt }
504 1.2.12.2 yamt
505 1.2.12.2 yamt /*
506 1.2.12.2 yamt * Choose kernel image mapping strategy:
507 1.2.12.2 yamt *
508 1.2.12.2 yamt * LOADFILE_NOP_ALLOCATOR To load kernel image headers
509 1.2.12.2 yamt * LOADFILE_OFW_ALLOCATOR To map the kernel by OpenFirmware means
510 1.2.12.2 yamt * LOADFILE_MMU_ALLOCATOR To use permanent 4MB mappings
511 1.2.12.2 yamt */
512 1.2.12.2 yamt void
513 1.2.12.2 yamt loadfile_set_allocator(int type)
514 1.2.12.2 yamt {
515 1.2.12.2 yamt if (type >= (sizeof(memswa) / sizeof(struct memsw))) {
516 1.2.12.2 yamt panic("Bad allocator request.\n");
517 1.2.12.2 yamt }
518 1.2.12.2 yamt
519 1.2.12.2 yamt /*
520 1.2.12.2 yamt * Release all memory claimed by previous allocator and schedule
521 1.2.12.2 yamt * another allocator for succeeding memory allocation calls.
522 1.2.12.2 yamt */
523 1.2.12.2 yamt (*memsw->freeall)();
524 1.2.12.2 yamt memsw = &memswa[type];
525 1.2.12.2 yamt }
526