Home | History | Annotate | Line # | Download | only in include
frameasm.h revision 1.1.18.5
      1  1.1.18.5  yamt /*	$NetBSD: frameasm.h,v 1.1.18.5 2008/01/21 09:35:24 yamt Exp $	*/
      2       1.1  fvdl 
      3       1.1  fvdl #ifndef _AMD64_MACHINE_FRAMEASM_H
      4       1.1  fvdl #define _AMD64_MACHINE_FRAMEASM_H
      5  1.1.18.4  yamt #include "opt_xen.h"
      6       1.1  fvdl 
      7       1.1  fvdl /*
      8       1.1  fvdl  * Macros to define pushing/popping frames for interrupts, traps
      9       1.1  fvdl  * and system calls. Currently all the same; will diverge later.
     10       1.1  fvdl  */
     11       1.1  fvdl 
     12  1.1.18.4  yamt #ifdef XEN
     13  1.1.18.4  yamt #define HYPERVISOR_iret hypercall_page + (__HYPERVISOR_iret * 32)
     14  1.1.18.4  yamt /* Xen do not need swapgs, done by hypervisor */
     15  1.1.18.4  yamt #define swapgs
     16  1.1.18.4  yamt #define iretq	pushq $0 ; jmp HYPERVISOR_iret
     17  1.1.18.4  yamt #endif
     18  1.1.18.4  yamt 
     19       1.1  fvdl /*
     20       1.1  fvdl  * These are used on interrupt or trap entry or exit.
     21       1.1  fvdl  */
     22       1.1  fvdl #define INTR_SAVE_GPRS \
     23       1.1  fvdl 	movq	%rdi,TF_RDI(%rsp)	; \
     24       1.1  fvdl 	movq	%rsi,TF_RSI(%rsp)	; \
     25       1.1  fvdl 	movq	%rdx,TF_RDX(%rsp)	; \
     26       1.1  fvdl 	movq	%rcx,TF_RCX(%rsp)	; \
     27  1.1.18.5  yamt 	movq	%r8,TF_R8(%rsp)		; \
     28  1.1.18.5  yamt 	movq	%r9,TF_R9(%rsp)		; \
     29  1.1.18.5  yamt 	movq	%r10,TF_R10(%rsp)	; \
     30  1.1.18.5  yamt 	movq	%r11,TF_R11(%rsp)	; \
     31  1.1.18.5  yamt 	movq	%r12,TF_R12(%rsp)	; \
     32  1.1.18.5  yamt 	movq	%r13,TF_R13(%rsp)	; \
     33  1.1.18.5  yamt 	movq	%r14,TF_R14(%rsp)	; \
     34  1.1.18.5  yamt 	movq	%r15,TF_R15(%rsp)	; \
     35  1.1.18.5  yamt 	movq	%rbp,TF_RBP(%rsp)	; \
     36  1.1.18.5  yamt 	movq	%rbx,TF_RBX(%rsp)	; \
     37  1.1.18.3  yamt 	movq	%rax,TF_RAX(%rsp)	; \
     38  1.1.18.3  yamt 	cld
     39       1.1  fvdl 
     40       1.1  fvdl #define	INTR_RESTORE_GPRS \
     41       1.1  fvdl 	movq	TF_RDI(%rsp),%rdi	; \
     42       1.1  fvdl 	movq	TF_RSI(%rsp),%rsi	; \
     43       1.1  fvdl 	movq	TF_RDX(%rsp),%rdx	; \
     44       1.1  fvdl 	movq	TF_RCX(%rsp),%rcx	; \
     45  1.1.18.5  yamt 	movq	TF_R8(%rsp),%r8		; \
     46  1.1.18.5  yamt 	movq	TF_R9(%rsp),%r9		; \
     47  1.1.18.5  yamt 	movq	TF_R10(%rsp),%r10	; \
     48  1.1.18.5  yamt 	movq	TF_R11(%rsp),%r11	; \
     49  1.1.18.5  yamt 	movq	TF_R12(%rsp),%r12	; \
     50  1.1.18.5  yamt 	movq	TF_R13(%rsp),%r13	; \
     51  1.1.18.5  yamt 	movq	TF_R14(%rsp),%r14	; \
     52  1.1.18.5  yamt 	movq	TF_R15(%rsp),%r15	; \
     53  1.1.18.5  yamt 	movq	TF_RBP(%rsp),%rbp	; \
     54  1.1.18.5  yamt 	movq	TF_RBX(%rsp),%rbx	; \
     55  1.1.18.5  yamt 	movq	TF_RAX(%rsp),%rax
     56       1.1  fvdl 
     57       1.1  fvdl #define	INTRENTRY \
     58  1.1.18.5  yamt 	subq	$TF_REGSIZE,%rsp	; \
     59  1.1.18.5  yamt 	testq	$SEL_UPL,TF_CS(%rsp)	; \
     60       1.1  fvdl 	je	98f			; \
     61       1.1  fvdl 	swapgs				; \
     62  1.1.18.5  yamt 	movw	%gs,TF_GS(%rsp)		; \
     63  1.1.18.5  yamt 	movw	%fs,TF_FS(%rsp)		; \
     64  1.1.18.5  yamt 	movw	%es,TF_ES(%rsp)		; \
     65  1.1.18.5  yamt 	movw	%ds,TF_DS(%rsp)		; \
     66       1.1  fvdl 98: 	INTR_SAVE_GPRS
     67       1.1  fvdl 
     68  1.1.18.4  yamt #ifndef XEN
     69       1.1  fvdl #define INTRFASTEXIT \
     70       1.1  fvdl 	INTR_RESTORE_GPRS 		; \
     71  1.1.18.5  yamt 	testq	$SEL_UPL,TF_CS(%rsp)	/* Interrupted %cs */ ; \
     72       1.1  fvdl 	je	99f			; \
     73       1.1  fvdl 	cli				; \
     74       1.1  fvdl 	swapgs				; \
     75  1.1.18.5  yamt 	movw	TF_GS(%rsp),%gs		; \
     76  1.1.18.5  yamt 	movw	TF_FS(%rsp),%fs		; \
     77  1.1.18.5  yamt 	movw	TF_ES(%rsp),%es		; \
     78  1.1.18.5  yamt 	movw	TF_DS(%rsp),%ds		; \
     79  1.1.18.5  yamt 99:	addq	$TF_REGSIZE+16,%rsp	/* + T_xxx and error code */ ; \
     80       1.1  fvdl 	iretq
     81       1.1  fvdl 
     82       1.1  fvdl #define INTR_RECURSE_HWFRAME \
     83       1.1  fvdl 	movq	%rsp,%r10		; \
     84       1.1  fvdl 	movl	%ss,%r11d		; \
     85       1.1  fvdl 	pushq	%r11			; \
     86       1.1  fvdl 	pushq	%r10			; \
     87       1.1  fvdl 	pushfq				; \
     88       1.1  fvdl 	movl	%cs,%r11d		; \
     89       1.1  fvdl 	pushq	%r11			; \
     90       1.1  fvdl 	pushq	%r13			;
     91       1.1  fvdl 
     92  1.1.18.4  yamt #else	/* !XEN */
     93  1.1.18.4  yamt /*
     94  1.1.18.4  yamt  * Disabling events before going to user mode sounds like a BAD idea
     95  1.1.18.4  yamt  * do no restore gs either, HYPERVISOR_iret will do a swapgs
     96  1.1.18.4  yamt  */
     97  1.1.18.4  yamt #define INTRFASTEXIT \
     98  1.1.18.4  yamt  	INTR_RESTORE_GPRS 		; \
     99  1.1.18.5  yamt  	testq	$SEL_UPL,TF_CS(%rsp)	; \
    100  1.1.18.4  yamt  	je	99f			; \
    101  1.1.18.5  yamt  	movw	TF_FS(%rsp),%fs		; \
    102  1.1.18.5  yamt  	movw	TF_ES(%rsp),%es		; \
    103  1.1.18.5  yamt  	movw	TF_DS(%rsp),%ds		; \
    104  1.1.18.5  yamt 99:	addq	$TF_REGSIZE+16,%rsp	/* + T_xxx and error code */ ; \
    105  1.1.18.4  yamt  	iretq
    106  1.1.18.4  yamt 
    107  1.1.18.4  yamt /* We must fixup CS, as even kernel mode runs at CPL 3 */
    108  1.1.18.4  yamt #define INTR_RECURSE_HWFRAME \
    109  1.1.18.4  yamt  	movq	%rsp,%r10		; \
    110  1.1.18.4  yamt  	movl	%ss,%r11d		; \
    111  1.1.18.4  yamt  	pushq	%r11			; \
    112  1.1.18.4  yamt  	pushq	%r10			; \
    113  1.1.18.4  yamt  	pushfq				; \
    114  1.1.18.4  yamt  	movl	%cs,%r11d		; \
    115  1.1.18.4  yamt  	pushq	%r11			; \
    116  1.1.18.4  yamt  	andb	$0xfc,(%rsp)		; \
    117  1.1.18.4  yamt  	pushq	%r13			;
    118  1.1.18.4  yamt 
    119  1.1.18.4  yamt #endif	/* !XEN */
    120  1.1.18.4  yamt 
    121  1.1.18.2  yamt #define	DO_DEFERRED_SWITCH \
    122  1.1.18.2  yamt 	cmpq	$0, CPUVAR(WANT_PMAPLOAD)		; \
    123  1.1.18.2  yamt 	jz	1f					; \
    124  1.1.18.2  yamt 	call	_C_LABEL(do_pmap_load)			; \
    125  1.1.18.2  yamt 	1:
    126  1.1.18.2  yamt 
    127  1.1.18.2  yamt #define	CHECK_DEFERRED_SWITCH \
    128  1.1.18.2  yamt 	cmpq	$0, CPUVAR(WANT_PMAPLOAD)
    129       1.1  fvdl 
    130  1.1.18.1  yamt #define CHECK_ASTPENDING(reg)	cmpq	$0, reg				; \
    131       1.1  fvdl 				je	99f				; \
    132  1.1.18.1  yamt 				cmpl	$0, L_MD_ASTPENDING(reg)	; \
    133       1.1  fvdl 				99:
    134       1.1  fvdl 
    135  1.1.18.1  yamt #define CLEAR_ASTPENDING(reg)	movl	$0, L_MD_ASTPENDING(reg)
    136       1.1  fvdl 
    137  1.1.18.4  yamt #ifdef XEN
    138  1.1.18.5  yamt #define CLI(temp_reg) \
    139  1.1.18.5  yamt  	movl CPUVAR(CPUID),%e/**/temp_reg ;			\
    140  1.1.18.5  yamt  	shlq $6,%r/**/temp_reg ;				\
    141  1.1.18.5  yamt  	addq _C_LABEL(HYPERVISOR_shared_info),%r/**/temp_reg ;	\
    142  1.1.18.5  yamt  	movb $1,EVTCHN_UPCALL_MASK(%r/**/temp_reg)
    143  1.1.18.5  yamt #define STI(temp_reg) \
    144  1.1.18.5  yamt  	movl CPUVAR(CPUID),%e/**/temp_reg ;			\
    145  1.1.18.5  yamt  	shlq $6,%r/**/temp_reg ;				\
    146  1.1.18.5  yamt  	addq _C_LABEL(HYPERVISOR_shared_info),%r/**/temp_reg ;	\
    147  1.1.18.5  yamt  	movb $0,EVTCHN_UPCALL_MASK(%r/**/temp_reg)
    148  1.1.18.4  yamt #else /* XEN */
    149  1.1.18.5  yamt #define CLI(temp_reg) cli
    150  1.1.18.5  yamt #define STI(temp_reg) sti
    151  1.1.18.4  yamt #endif	/* XEN */
    152  1.1.18.4  yamt 
    153       1.1  fvdl #endif /* _AMD64_MACHINE_FRAMEASM_H */
    154