Simplify (and robustify) regular PACKing
[sbcl.git] / src / runtime / x86-linux-os.c
index 25d9cd7..373ffc5 100644 (file)
 #include <sys/stat.h>
 #include <unistd.h>
 #include <asm/ldt.h>
-#include <linux/unistd.h>
+#include <sys/syscall.h>
 #include <sys/mman.h>
 #include <linux/version.h>
-#include "thread.h"            /* dynamic_values_bytes */
+#include "thread.h"             /* dynamic_values_bytes */
 
 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,0)
-#define user_desc  modify_ldt_ldt_s 
+#define user_desc  modify_ldt_ldt_s
 #endif
 
-_syscall3(int, modify_ldt, int, func, void *, ptr, unsigned long, bytecount );
+#define modify_ldt sbcl_modify_ldt
+static inline int modify_ldt (int func, void *ptr, unsigned long bytecount)
+{
+  return syscall (SYS_modify_ldt, func, ptr, bytecount);
+}
 
 #include "validate.h"
 size_t os_vm_page_size;
@@ -60,50 +64,67 @@ u32 local_ldt_copy[LDT_ENTRIES*LDT_ENTRY_SIZE/sizeof(u32)];
  * users have thread-related problems that maintainers can't duplicate */
 
 void debug_get_ldt()
-{ 
+{
     int n=modify_ldt (0, local_ldt_copy, sizeof local_ldt_copy);
     printf("%d bytes in ldt: print/x local_ldt_copy\n", n);
 }
 
-volatile lispobj modify_ldt_lock;      /* protect all calls to modify_ldt */
+#ifdef LISP_FEATURE_SB_THREAD
+pthread_mutex_t modify_ldt_lock = PTHREAD_MUTEX_INITIALIZER;
+#endif
 
 int arch_os_thread_init(struct thread *thread) {
     stack_t sigstack;
 #ifdef LISP_FEATURE_SB_THREAD
-    /* this must be called from a function that has an exclusive lock
-     * on all_threads
-     */
     struct user_desc ldt_entry = {
-       1, 0, 0, /* index, address, length filled in later */
-       1, MODIFY_LDT_CONTENTS_DATA, 0, 0, 0, 1
-    }; 
+        1, 0, 0, /* index, address, length filled in later */
+        1, MODIFY_LDT_CONTENTS_DATA, 0, 0, 0, 1
+    };
     int n;
-    get_spinlock(&modify_ldt_lock,thread);
+    thread_mutex_lock(&modify_ldt_lock);
     n=modify_ldt(0,local_ldt_copy,sizeof local_ldt_copy);
     /* get next free ldt entry */
 
     if(n) {
-       u32 *p;
-       for(n=0,p=local_ldt_copy;*p;p+=LDT_ENTRY_SIZE/sizeof(u32))
-           n++;
+        u32 *p;
+        for(n=0,p=local_ldt_copy;*p;p+=LDT_ENTRY_SIZE/sizeof(u32))
+            n++;
     }
     ldt_entry.entry_number=n;
     ldt_entry.base_addr=(unsigned long) thread;
     ldt_entry.limit=dynamic_values_bytes;
     ldt_entry.limit_in_pages=0;
     if (modify_ldt (1, &ldt_entry, sizeof (ldt_entry)) != 0) {
-       modify_ldt_lock=0;
-       /* modify_ldt call failed: something magical is not happening */
-       return -1;
+        thread_mutex_unlock(&modify_ldt_lock);
+        /* modify_ldt call failed: something magical is not happening */
+        return 0;
     }
-    __asm__ __volatile__ ("movw %w0, %%fs" : : "q" 
-                         ((n << 3) /* selector number */
-                          + (1 << 2) /* TI set = LDT */
-                          + 3)); /* privilege level */
+    __asm__ __volatile__ ("movw %w0, %%fs" : : "q"
+                          ((n << 3) /* selector number */
+                           + (1 << 2) /* TI set = LDT */
+                           + 3)); /* privilege level */
     thread->tls_cookie=n;
-    modify_ldt_lock=0;
+    pthread_mutex_unlock(&modify_ldt_lock);
+
+    /* now %fs:0 refers to the current thread.  Useful!  Less usefully,
+     * Linux/x86 isn't capable of reporting a faulting si_addr on a
+     * segment as defined above (whereas faults on the segment that %gs
+     * usually points are reported just fine...).  As a special
+     * workaround, we store each thread structure's absolute address as
+     * as slot in itself, so that within the thread,
+     *   movl %fs:SELFPTR_OFFSET,x
+     * stores the absolute address of %fs:0 into x.
+     */
+#ifdef LISP_FEATURE_SB_SAFEPOINT
+    thread->selfptr = thread;
+#endif
 
     if(n<0) return 0;
+#ifdef LISP_FEATURE_GCC_TLS
+    current_thread = thread;
+#else
+    pthread_setspecific(specials,thread);
+#endif
 #endif
 #ifdef LISP_FEATURE_C_STACK_IS_CONTROL_STACK
     /* Signal handlers are run on the control stack, so if it is exhausted
@@ -112,7 +133,8 @@ int arch_os_thread_init(struct thread *thread) {
     sigstack.ss_sp=((void *) thread)+dynamic_values_bytes;
     sigstack.ss_flags=0;
     sigstack.ss_size = 32*SIGSTKSZ;
-    sigaltstack(&sigstack,0);
+    if(sigaltstack(&sigstack,0)<0)
+        lose("Cannot sigaltstack: %s\n",strerror(errno));
 #endif
     return 1;
 }
@@ -120,7 +142,7 @@ int arch_os_thread_init(struct thread *thread) {
 struct thread *debug_get_fs() {
     register u32 fs;
     __asm__ __volatile__ ("movl %%fs,%0" : "=r" (fs)  : );
-    return fs;
+    return (struct thread *)fs;
 }
 
 /* free any arch/os-specific resources used by thread, which is now
@@ -129,19 +151,16 @@ struct thread *debug_get_fs() {
 
 int arch_os_thread_cleanup(struct thread *thread) {
     struct user_desc ldt_entry = {
-       0, 0, 0, 
-       0, MODIFY_LDT_CONTENTS_DATA, 0, 0, 0, 0
-    }; 
+        0, 0, 0,
+        0, MODIFY_LDT_CONTENTS_DATA, 0, 0, 0, 0
+    };
+    int result;
 
     ldt_entry.entry_number=thread->tls_cookie;
-    get_spinlock(&modify_ldt_lock,thread);
-    if (modify_ldt (1, &ldt_entry, sizeof (ldt_entry)) != 0) {
-       modify_ldt_lock=0;
-       /* modify_ldt call failed: something magical is not happening */
-       return 0;
-    }
-    modify_ldt_lock=0;
-    return 1;
+    thread_mutex_lock(&modify_ldt_lock);
+    result = modify_ldt(1, &ldt_entry, sizeof (ldt_entry));
+    thread_mutex_unlock(&modify_ldt_lock);
+    return result;
 }
 
 
@@ -155,14 +174,14 @@ os_context_register_t *
 os_context_register_addr(os_context_t *context, int offset)
 {
     switch(offset) {
-    case reg_EAX: return &context->uc_mcontext.gregs[11]; 
-    case reg_ECX: return &context->uc_mcontext.gregs[10]; 
-    case reg_EDX: return &context->uc_mcontext.gregs[9]; 
-    case reg_EBX: return &context->uc_mcontext.gregs[8]; 
-    case reg_ESP: return &context->uc_mcontext.gregs[7]; 
-    case reg_EBP: return &context->uc_mcontext.gregs[6]; 
-    case reg_ESI: return &context->uc_mcontext.gregs[5]; 
-    case reg_EDI: return &context->uc_mcontext.gregs[4]; 
+    case reg_EAX: return &context->uc_mcontext.gregs[11];
+    case reg_ECX: return &context->uc_mcontext.gregs[10];
+    case reg_EDX: return &context->uc_mcontext.gregs[9];
+    case reg_EBX: return &context->uc_mcontext.gregs[8];
+    case reg_ESP: return &context->uc_mcontext.gregs[7];
+    case reg_EBP: return &context->uc_mcontext.gregs[6];
+    case reg_ESI: return &context->uc_mcontext.gregs[5];
+    case reg_EDI: return &context->uc_mcontext.gregs[4];
     default: return 0;
     }
     return &context->uc_mcontext.gregs[offset];
@@ -176,7 +195,7 @@ os_context_pc_addr(os_context_t *context)
 
 os_context_register_t *
 os_context_sp_addr(os_context_t *context)
-{                              
+{
     return &context->uc_mcontext.gregs[17]; /* REG_UESP */
 }
 
@@ -190,7 +209,7 @@ unsigned long
 os_context_fp_control(os_context_t *context)
 {
     return ((((context->uc_mcontext.fpregs->cw) & 0xffff) ^ 0x3f) |
-           (((context->uc_mcontext.fpregs->sw) & 0xffff) << 16));
+            (((context->uc_mcontext.fpregs->sw) & 0xffff) << 16));
 }
 
 sigset_t *
@@ -202,11 +221,11 @@ os_context_sigmask_addr(os_context_t *context)
 void
 os_restore_fp_control(os_context_t *context)
 {
-    asm ("fldcw %0" : : "m" (context->uc_mcontext.fpregs->cw));
+    if (context->uc_mcontext.fpregs)
+        asm ("fldcw %0" : : "m" (context->uc_mcontext.fpregs->cw));
 }
 
 void
 os_flush_icache(os_vm_address_t address, os_vm_size_t length)
 {
 }
-