frameasm.h revision 1.13 1 /* $NetBSD: frameasm.h,v 1.13 2008/11/21 10:05:41 ad Exp $ */
2
3 #ifndef _AMD64_MACHINE_FRAMEASM_H
4 #define _AMD64_MACHINE_FRAMEASM_H
5
6 #ifdef _KERNEL_OPT
7 #include "opt_xen.h"
8 #endif
9
10 /*
11 * Macros to define pushing/popping frames for interrupts, traps
12 * and system calls. Currently all the same; will diverge later.
13 */
14
15 #ifdef XEN
16 #define HYPERVISOR_iret hypercall_page + (__HYPERVISOR_iret * 32)
17 /* Xen do not need swapgs, done by hypervisor */
18 #define swapgs
19 #define iretq pushq $0 ; jmp HYPERVISOR_iret
20 #endif
21
22 /*
23 * These are used on interrupt or trap entry or exit.
24 */
25 #define INTR_SAVE_GPRS \
26 movq %rdi,TF_RDI(%rsp) ; \
27 movq %rsi,TF_RSI(%rsp) ; \
28 movq %rdx,TF_RDX(%rsp) ; \
29 movq %rcx,TF_RCX(%rsp) ; \
30 movq %r8,TF_R8(%rsp) ; \
31 movq %r9,TF_R9(%rsp) ; \
32 movq %r10,TF_R10(%rsp) ; \
33 movq %r11,TF_R11(%rsp) ; \
34 movq %r12,TF_R12(%rsp) ; \
35 movq %r13,TF_R13(%rsp) ; \
36 movq %r14,TF_R14(%rsp) ; \
37 movq %r15,TF_R15(%rsp) ; \
38 movq %rbp,TF_RBP(%rsp) ; \
39 movq %rbx,TF_RBX(%rsp) ; \
40 movq %rax,TF_RAX(%rsp) ; \
41 cld
42
43 #define INTR_RESTORE_GPRS \
44 movq TF_RDI(%rsp),%rdi ; \
45 movq TF_RSI(%rsp),%rsi ; \
46 movq TF_RDX(%rsp),%rdx ; \
47 movq TF_RCX(%rsp),%rcx ; \
48 movq TF_R8(%rsp),%r8 ; \
49 movq TF_R9(%rsp),%r9 ; \
50 movq TF_R10(%rsp),%r10 ; \
51 movq TF_R11(%rsp),%r11 ; \
52 movq TF_R12(%rsp),%r12 ; \
53 movq TF_R13(%rsp),%r13 ; \
54 movq TF_R14(%rsp),%r14 ; \
55 movq TF_R15(%rsp),%r15 ; \
56 movq TF_RBP(%rsp),%rbp ; \
57 movq TF_RBX(%rsp),%rbx ; \
58 movq TF_RAX(%rsp),%rax
59
60 #define INTRENTRY \
61 subq $TF_REGSIZE,%rsp ; \
62 testq $SEL_UPL,TF_CS(%rsp) ; \
63 je 98f ; \
64 swapgs ; \
65 movw %gs,TF_GS(%rsp) ; \
66 movw %fs,TF_FS(%rsp) ; \
67 movw %es,TF_ES(%rsp) ; \
68 movw %ds,TF_DS(%rsp) ; \
69 98: INTR_SAVE_GPRS
70
71 #ifndef XEN
72 #define INTRFASTEXIT \
73 INTR_RESTORE_GPRS ; \
74 testq $SEL_UPL,TF_CS(%rsp) /* Interrupted %cs */ ; \
75 je 99f ; \
76 cli ; \
77 swapgs ; \
78 movw TF_GS(%rsp),%gs ; \
79 movw TF_FS(%rsp),%fs ; \
80 movw TF_ES(%rsp),%es ; \
81 movw TF_DS(%rsp),%ds ; \
82 99: addq $TF_REGSIZE+16,%rsp /* + T_xxx and error code */ ; \
83 iretq
84
85 #define INTR_RECURSE_HWFRAME \
86 movq %rsp,%r10 ; \
87 movl %ss,%r11d ; \
88 pushq %r11 ; \
89 pushq %r10 ; \
90 pushfq ; \
91 movl %cs,%r11d ; \
92 pushq %r11 ; \
93 pushq %r13 ;
94
95 #else /* !XEN */
96 /*
97 * Disabling events before going to user mode sounds like a BAD idea
98 * do no restore gs either, HYPERVISOR_iret will do a swapgs
99 */
100 #define INTRFASTEXIT \
101 INTR_RESTORE_GPRS ; \
102 testq $SEL_UPL,TF_CS(%rsp) ; \
103 je 99f ; \
104 movw TF_FS(%rsp),%fs ; \
105 movw TF_ES(%rsp),%es ; \
106 movw TF_DS(%rsp),%ds ; \
107 99: addq $TF_REGSIZE+16,%rsp /* + T_xxx and error code */ ; \
108 iretq
109
110 /* We must fixup CS, as even kernel mode runs at CPL 3 */
111 #define INTR_RECURSE_HWFRAME \
112 movq %rsp,%r10 ; \
113 movl %ss,%r11d ; \
114 pushq %r11 ; \
115 pushq %r10 ; \
116 pushfq ; \
117 movl %cs,%r11d ; \
118 pushq %r11 ; \
119 andb $0xfc,(%rsp) ; \
120 pushq %r13 ;
121
122 #endif /* !XEN */
123
124 #define DO_DEFERRED_SWITCH \
125 cmpq $0, CPUVAR(WANT_PMAPLOAD) ; \
126 jz 1f ; \
127 call _C_LABEL(do_pmap_load) ; \
128 1:
129
130 #define CHECK_DEFERRED_SWITCH \
131 cmpq $0, CPUVAR(WANT_PMAPLOAD)
132
133 #define CHECK_ASTPENDING(reg) cmpl $0, L_MD_ASTPENDING(reg)
134 #define CLEAR_ASTPENDING(reg) movl $0, L_MD_ASTPENDING(reg)
135
136 #ifdef XEN
137 #define CLI(temp_reg) \
138 movl CPUVAR(CPUID),%e/**/temp_reg ; \
139 shlq $6,%r/**/temp_reg ; \
140 addq CPUVAR(VCPU),%r/**/temp_reg ; \
141 movb $1,EVTCHN_UPCALL_MASK(%r/**/temp_reg)
142 #define STI(temp_reg) \
143 movl CPUVAR(CPUID),%e/**/temp_reg ; \
144 shlq $6,%r/**/temp_reg ; \
145 addq CPUVAR(VCPU),%r/**/temp_reg ; \
146 movb $0,EVTCHN_UPCALL_MASK(%r/**/temp_reg)
147 #else /* XEN */
148 #define CLI(temp_reg) cli
149 #define STI(temp_reg) sti
150 #endif /* XEN */
151
152 #endif /* _AMD64_MACHINE_FRAMEASM_H */
153