0.9.3.66:
[sbcl.git] / src / runtime / x86-linux-os.c
index 30a44da..5b55fdc 100644 (file)
  */
 
 #include <stdio.h>
+#include <stddef.h>
 #include <sys/param.h>
 #include <sys/file.h>
+#include <sys/types.h>
+#include <unistd.h>
+#include <errno.h>
+
+#include "sbcl.h"
 #include "./signal.h"
 #include "os.h"
 #include "arch.h"
@@ -24,7 +30,6 @@
 #include "interrupt.h"
 #include "interr.h"
 #include "lispregs.h"
-#include "sbcl.h"
 #include <sys/socket.h>
 #include <sys/utsname.h>
 
 #include <sys/time.h>
 #include <sys/stat.h>
 #include <unistd.h>
+#include <asm/ldt.h>
+#include <sys/syscall.h>
+#include <sys/mman.h>
+#include <linux/version.h>
+#include "thread.h"             /* dynamic_values_bytes */
+
+#if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,0)
+#define user_desc  modify_ldt_ldt_s
+#endif
+
+#define modify_ldt sbcl_modify_ldt
+static inline int modify_ldt (int func, void *ptr, unsigned long bytecount)
+{
+  return syscall (SYS_modify_ldt, func, ptr, bytecount);
+}
 
 #include "validate.h"
 size_t os_vm_page_size;
 
+u32 local_ldt_copy[LDT_ENTRIES*LDT_ENTRY_SIZE/sizeof(u32)];
+
+/* This is never actually called, but it's great for calling from gdb when
+ * users have thread-related problems that maintainers can't duplicate */
+
+void debug_get_ldt()
+{
+    int n=modify_ldt (0, local_ldt_copy, sizeof local_ldt_copy);
+    printf("%d bytes in ldt: print/x local_ldt_copy\n", n);
+}
+
+volatile lispobj modify_ldt_lock;       /* protect all calls to modify_ldt */
+
+int arch_os_thread_init(struct thread *thread) {
+    stack_t sigstack;
+#ifdef LISP_FEATURE_SB_THREAD
+    /* FIXME Lock ordering rules: all_threads_lock must usually be
+     * held when getting modify_ldt_lock
+     */
+    struct user_desc ldt_entry = {
+        1, 0, 0, /* index, address, length filled in later */
+        1, MODIFY_LDT_CONTENTS_DATA, 0, 0, 0, 1
+    };
+    int n;
+    get_spinlock(&modify_ldt_lock,(long)thread);
+    n=modify_ldt(0,local_ldt_copy,sizeof local_ldt_copy);
+    /* get next free ldt entry */
+
+    if(n) {
+        u32 *p;
+        for(n=0,p=local_ldt_copy;*p;p+=LDT_ENTRY_SIZE/sizeof(u32))
+            n++;
+    }
+    ldt_entry.entry_number=n;
+    ldt_entry.base_addr=(unsigned long) thread;
+    ldt_entry.limit=dynamic_values_bytes;
+    ldt_entry.limit_in_pages=0;
+    if (modify_ldt (1, &ldt_entry, sizeof (ldt_entry)) != 0) {
+        modify_ldt_lock=0;
+        /* modify_ldt call failed: something magical is not happening */
+        return 0;
+    }
+    __asm__ __volatile__ ("movw %w0, %%fs" : : "q"
+                          ((n << 3) /* selector number */
+                           + (1 << 2) /* TI set = LDT */
+                           + 3)); /* privilege level */
+    thread->tls_cookie=n;
+    modify_ldt_lock=0;
+
+    if(n<0) return 0;
+    pthread_setspecific(specials,thread);
+#endif
+#ifdef LISP_FEATURE_C_STACK_IS_CONTROL_STACK
+    /* Signal handlers are run on the control stack, so if it is exhausted
+     * we had better use an alternate stack for whatever signal tells us
+     * we've exhausted it */
+    sigstack.ss_sp=((void *) thread)+dynamic_values_bytes;
+    sigstack.ss_flags=0;
+    sigstack.ss_size = 32*SIGSTKSZ;
+    if(sigaltstack(&sigstack,0)<0)
+        lose("Cannot sigaltstack: %s\n",strerror(errno));
+#endif
+    return 1;
+}
+
+struct thread *debug_get_fs() {
+    register u32 fs;
+    __asm__ __volatile__ ("movl %%fs,%0" : "=r" (fs)  : );
+    return (struct thread *)fs;
+}
+
+/* free any arch/os-specific resources used by thread, which is now
+ * defunct.  Not called on live threads
+ */
+
+int arch_os_thread_cleanup(struct thread *thread) {
+    struct user_desc ldt_entry = {
+        0, 0, 0,
+        0, MODIFY_LDT_CONTENTS_DATA, 0, 0, 0, 0
+    };
+
+    ldt_entry.entry_number=thread->tls_cookie;
+    get_spinlock(&modify_ldt_lock,(long)thread);
+    if (modify_ldt (1, &ldt_entry, sizeof (ldt_entry)) != 0) {
+        modify_ldt_lock=0;
+        /* modify_ldt call failed: something magical is not happening */
+        return 0;
+    }
+    modify_ldt_lock=0;
+    return 1;
+}
+
+
 
 /* KLUDGE: As of kernel 2.2.14 on Red Hat 6.2, there's code in the
  * <sys/ucontext.h> file to define symbolic names for offsets into
@@ -48,14 +161,14 @@ os_context_register_t *
 os_context_register_addr(os_context_t *context, int offset)
 {
     switch(offset) {
-    case  0: return &context->uc_mcontext.gregs[11]; /* EAX */
-    case  2: return &context->uc_mcontext.gregs[10]; /* ECX */
-    case  4: return &context->uc_mcontext.gregs[9]; /* EDX */
-    case  6: return &context->uc_mcontext.gregs[8]; /* EBX */
-    case  8: return &context->uc_mcontext.gregs[7]; /* ESP */
-    case 10: return &context->uc_mcontext.gregs[6]; /* EBP */
-    case 12: return &context->uc_mcontext.gregs[5]; /* ESI */
-    case 14: return &context->uc_mcontext.gregs[4]; /* EDI */
+    case reg_EAX: return &context->uc_mcontext.gregs[11];
+    case reg_ECX: return &context->uc_mcontext.gregs[10];
+    case reg_EDX: return &context->uc_mcontext.gregs[9];
+    case reg_EBX: return &context->uc_mcontext.gregs[8];
+    case reg_ESP: return &context->uc_mcontext.gregs[7];
+    case reg_EBP: return &context->uc_mcontext.gregs[6];
+    case reg_ESI: return &context->uc_mcontext.gregs[5];
+    case reg_EDI: return &context->uc_mcontext.gregs[4];
     default: return 0;
     }
     return &context->uc_mcontext.gregs[offset];
@@ -69,7 +182,7 @@ os_context_pc_addr(os_context_t *context)
 
 os_context_register_t *
 os_context_sp_addr(os_context_t *context)
-{                              
+{
     return &context->uc_mcontext.gregs[17]; /* REG_UESP */
 }
 
@@ -83,7 +196,7 @@ unsigned long
 os_context_fp_control(os_context_t *context)
 {
     return ((((context->uc_mcontext.fpregs->cw) & 0xffff) ^ 0x3f) |
-           (((context->uc_mcontext.fpregs->sw) & 0xffff) << 16));
+            (((context->uc_mcontext.fpregs->sw) & 0xffff) << 16));
 }
 
 sigset_t *
@@ -102,4 +215,3 @@ void
 os_flush_icache(os_vm_address_t address, os_vm_size_t length)
 {
 }
-