Home | History | Annotate | Line # | Download | only in include
frameasm.h revision 1.30
      1 /*	$NetBSD: frameasm.h,v 1.30 2018/01/20 14:39:21 maxv Exp $	*/
      2 
      3 #ifndef _AMD64_MACHINE_FRAMEASM_H
      4 #define _AMD64_MACHINE_FRAMEASM_H
      5 
      6 #ifdef _KERNEL_OPT
      7 #include "opt_xen.h"
      8 #include "opt_svs.h"
      9 #endif
     10 
     11 /*
     12  * Macros to define pushing/popping frames for interrupts, traps
     13  * and system calls. Currently all the same; will diverge later.
     14  */
     15 
     16 #ifdef XEN
     17 #define HYPERVISOR_iret hypercall_page + (__HYPERVISOR_iret * 32)
     18 /* Xen do not need swapgs, done by hypervisor */
     19 #define swapgs
     20 #define iretq	pushq $0 ; jmp HYPERVISOR_iret
     21 #define	XEN_ONLY2(x,y)	x,y
     22 #define	NOT_XEN(x)
     23 
     24 #define CLI(temp_reg) \
     25  	movq CPUVAR(VCPU),%r ## temp_reg ;			\
     26 	movb $1,EVTCHN_UPCALL_MASK(%r ## temp_reg);
     27 
     28 #define STI(temp_reg) \
     29  	movq CPUVAR(VCPU),%r ## temp_reg ;			\
     30 	movb $0,EVTCHN_UPCALL_MASK(%r ## temp_reg);
     31 
     32 #else /* XEN */
     33 #define	XEN_ONLY2(x,y)
     34 #define	NOT_XEN(x)	x
     35 #define CLI(temp_reg) cli
     36 #define STI(temp_reg) sti
     37 #endif	/* XEN */
     38 
     39 #define HP_NAME_CLAC		1
     40 #define HP_NAME_STAC		2
     41 #define HP_NAME_NOLOCK		3
     42 #define HP_NAME_RETFENCE	4
     43 
     44 #define HOTPATCH(name, size) \
     45 123:						; \
     46 	.pushsection	.rodata.hotpatch, "a"	; \
     47 	.byte		name			; \
     48 	.byte		size			; \
     49 	.quad		123b			; \
     50 	.popsection
     51 
     52 #define SMAP_ENABLE \
     53 	HOTPATCH(HP_NAME_CLAC, 3)		; \
     54 	.byte 0x0F, 0x1F, 0x00			; \
     55 
     56 #define SMAP_DISABLE \
     57 	HOTPATCH(HP_NAME_STAC, 3)		; \
     58 	.byte 0x0F, 0x1F, 0x00			; \
     59 
     60 #define	SWAPGS	NOT_XEN(swapgs)
     61 
     62 /*
     63  * These are used on interrupt or trap entry or exit.
     64  */
     65 #define INTR_SAVE_GPRS \
     66 	movq	%rdi,TF_RDI(%rsp)	; \
     67 	movq	%rsi,TF_RSI(%rsp)	; \
     68 	movq	%rdx,TF_RDX(%rsp)	; \
     69 	movq	%rcx,TF_RCX(%rsp)	; \
     70 	movq	%r8,TF_R8(%rsp)		; \
     71 	movq	%r9,TF_R9(%rsp)		; \
     72 	movq	%r10,TF_R10(%rsp)	; \
     73 	movq	%r11,TF_R11(%rsp)	; \
     74 	movq	%r12,TF_R12(%rsp)	; \
     75 	movq	%r13,TF_R13(%rsp)	; \
     76 	movq	%r14,TF_R14(%rsp)	; \
     77 	movq	%r15,TF_R15(%rsp)	; \
     78 	movq	%rbp,TF_RBP(%rsp)	; \
     79 	movq	%rbx,TF_RBX(%rsp)	; \
     80 	movq	%rax,TF_RAX(%rsp)
     81 
     82 #define	INTR_RESTORE_GPRS \
     83 	movq	TF_RDI(%rsp),%rdi	; \
     84 	movq	TF_RSI(%rsp),%rsi	; \
     85 	movq	TF_RDX(%rsp),%rdx	; \
     86 	movq	TF_RCX(%rsp),%rcx	; \
     87 	movq	TF_R8(%rsp),%r8		; \
     88 	movq	TF_R9(%rsp),%r9		; \
     89 	movq	TF_R10(%rsp),%r10	; \
     90 	movq	TF_R11(%rsp),%r11	; \
     91 	movq	TF_R12(%rsp),%r12	; \
     92 	movq	TF_R13(%rsp),%r13	; \
     93 	movq	TF_R14(%rsp),%r14	; \
     94 	movq	TF_R15(%rsp),%r15	; \
     95 	movq	TF_RBP(%rsp),%rbp	; \
     96 	movq	TF_RBX(%rsp),%rbx	; \
     97 	movq	TF_RAX(%rsp),%rax
     98 
     99 #ifdef SVS
    100 
    101 /* XXX: put this somewhere else */
    102 #define SVS_UTLS		0xffffc00000000000 /* PMAP_PCPU_BASE */
    103 #define UTLS_KPDIRPA		0
    104 #define UTLS_SCRATCH		8
    105 #define UTLS_RSP0		16
    106 
    107 #define SVS_ENTER \
    108 	movq	SVS_UTLS+UTLS_KPDIRPA,%rax	; \
    109 	movq	%rax,%cr3			; \
    110 	movq	CPUVAR(KRSP0),%rsp
    111 
    112 #define SVS_LEAVE \
    113 	testb	$SEL_UPL,TF_CS(%rsp)		; \
    114 	jz	1234f				; \
    115 	movq	CPUVAR(URSP0),%rsp		; \
    116 	movq	CPUVAR(UPDIRPA),%rax		; \
    117 	movq	%rax,%cr3			; \
    118 1234:
    119 
    120 #define SVS_ENTER_ALTSTACK \
    121 	testb	$SEL_UPL,TF_CS(%rsp)		; \
    122 	jz	1234f				; \
    123 	movq	SVS_UTLS+UTLS_KPDIRPA,%rax	; \
    124 	movq	%rax,%cr3			; \
    125 1234:
    126 
    127 #define SVS_LEAVE_ALTSTACK \
    128 	testb	$SEL_UPL,TF_CS(%rsp)		; \
    129 	jz	1234f				; \
    130 	movq	CPUVAR(UPDIRPA),%rax		; \
    131 	movq	%rax,%cr3			; \
    132 1234:
    133 #else
    134 #define SVS_ENTER	/* nothing */
    135 #define SVS_LEAVE	/* nothing */
    136 #define SVS_ENTER_ALTSTACK	/* nothing */
    137 #define SVS_LEAVE_ALTSTACK	/* nothing */
    138 #endif
    139 
    140 #define	INTRENTRY_L(kernel_trap, usertrap) \
    141 	subq	$TF_REGSIZE,%rsp	; \
    142 	INTR_SAVE_GPRS			; \
    143 	cld				; \
    144 	SMAP_ENABLE			; \
    145 	testb	$SEL_UPL,TF_CS(%rsp)	; \
    146 	je	kernel_trap		; \
    147 usertrap				; \
    148 	SWAPGS				; \
    149 	SVS_ENTER			; \
    150 	movw	%gs,TF_GS(%rsp)		; \
    151 	movw	%fs,TF_FS(%rsp)		; \
    152 	movw	%es,TF_ES(%rsp)		; \
    153 	movw	%ds,TF_DS(%rsp)
    154 
    155 #define	INTRENTRY \
    156 	INTRENTRY_L(98f,)		; \
    157 98:
    158 
    159 #define INTRFASTEXIT \
    160 	jmp	intrfastexit
    161 
    162 #define INTR_RECURSE_HWFRAME \
    163 	movq	%rsp,%r10		; \
    164 	movl	%ss,%r11d		; \
    165 	pushq	%r11			; \
    166 	pushq	%r10			; \
    167 	pushfq				; \
    168 	movl	%cs,%r11d		; \
    169 	pushq	%r11			; \
    170 /* XEN: We must fixup CS, as even kernel mode runs at CPL 3 */ \
    171  	XEN_ONLY2(andb	$0xfc,(%rsp);)	  \
    172 	pushq	%r13			;
    173 
    174 #define	DO_DEFERRED_SWITCH \
    175 	cmpl	$0, CPUVAR(WANT_PMAPLOAD)		; \
    176 	jz	1f					; \
    177 	call	_C_LABEL(do_pmap_load)			; \
    178 1:
    179 
    180 #define	CHECK_DEFERRED_SWITCH \
    181 	cmpl	$0, CPUVAR(WANT_PMAPLOAD)
    182 
    183 #define CHECK_ASTPENDING(reg)	cmpl	$0, L_MD_ASTPENDING(reg)
    184 #define CLEAR_ASTPENDING(reg)	movl	$0, L_MD_ASTPENDING(reg)
    185 
    186 #endif /* _AMD64_MACHINE_FRAMEASM_H */
    187