source: libcfa/src/concurrency/invoke.h @ ce9f9d4

ADTast-experimentalenumforall-pointer-decaypthread-emulationqualifiedEnum
Last change on this file since ce9f9d4 was c86ee4c, checked in by Thierry Delisle <tdelisle@…>, 3 years ago

Merge branch 'master' of plg.uwaterloo.ca:software/cfa/cfa-cc

  • Property mode set to 100644
File size: 8.3 KB
RevLine 
[8def349]1//
2// Cforall Version 1.0.0 Copyright (C) 2016 University of Waterloo
3//
4// The contents of this file are covered under the licence agreement in the
5// file "LICENCE" distributed with Cforall.
6//
7// invoke.h --
8//
9// Author           : Thierry Delisle
10// Created On       : Tue Jan 17 12:27:26 2016
[6b0b624]11// Last Modified By : Peter A. Buhr
[09d4b22]12// Last Modified On : Thu Dec  5 16:26:03 2019
13// Update Count     : 44
[8def349]14//
15
[73abe95]16#include "bits/containers.hfa"
17#include "bits/defs.hfa"
18#include "bits/locks.hfa"
[3e2b9c9]19#include "kernel/fwd.hfa"
[78b3f52]20
[0cf5b79]21#ifdef __cforall
[82f4063]22#include "containers/list.hfa"
[5c81105]23extern "C" {
24#endif
25
26#if ! defined(__CFA_INVOKE_PRIVATE__)
[78b3f52]27#ifndef _INVOKE_H_
28#define _INVOKE_H_
29
[80ec409]30        struct __cfaehm_try_resume_node;
31        struct __cfaehm_base_exception_t;
32        struct exception_context_t {
33                struct __cfaehm_try_resume_node * top_resume;
34                struct __cfaehm_base_exception_t * current_exception;
35        };
36
[b2f6113]37        struct __stack_context_t {
38                void * SP;
39                void * FP;
40        };
41
42        // low adresses  :           +----------------------+ <- start of allocation
43        //                           |  optional guard page |
44        //                           +----------------------+ <- __stack_t.limit
45        //                           |                      |
46        //                           |       /\ /\ /\       |
47        //                           |       || || ||       |
48        //                           |                      |
49        //                           |    program  stack    |
50        //                           |                      |
51        // __stack_info_t.storage -> +----------------------+ <- __stack_t.base
52        //                           |      __stack_t       |
53        // high adresses :           +----------------------+ <- end of allocation
54
55        struct __stack_t {
56                // stack grows towards stack limit
57                void * limit;
58
59                // base of stack
60                void * base;
[80ec409]61
62                // Information for exception handling.
63                struct exception_context_t exception_context;
[b2f6113]64        };
65
66        struct __stack_info_t {
67                // pointer to stack
68                struct __stack_t * storage;
[025278e]69        };
70
[3ea8ad1]71        enum __Coroutine_State { Halted, Start, Primed, Blocked, Ready, Active, Cancelled, Halting };
[025278e]72
[e84ab3d]73        struct coroutine$ {
[c7a900a]74                // context that is switch during a __cfactx_switch
[b2f6113]75                struct __stack_context_t context;
76
[76e069f]77                // stack information of the coroutine
[b2f6113]78                struct __stack_info_t stack;
[76e069f]79
[e8e457e]80                // textual name for coroutine/task
[76e069f]81                const char * name;
82
83                // current execution status for coroutine
[ff79d5e]84                enum __Coroutine_State state;
[b2f6113]85
[76e069f]86                // first coroutine to resume this one
[e84ab3d]87                struct coroutine$ * starter;
[76e069f]88
89                // last coroutine to resume this one
[e84ab3d]90                struct coroutine$ * last;
[76e069f]91
92                // If non-null stack must be unwound with this exception
93                struct _Unwind_Exception * cancellation;
94
[025278e]95        };
[038110a]96        // Wrapper for gdb
[e84ab3d]97        struct cfathread_coroutine_t { struct coroutine$ debug; };
[025278e]98
[e84ab3d]99        static inline struct __stack_t * __get_stack( struct coroutine$ * cor ) {
[80ec409]100                return (struct __stack_t*)(((uintptr_t)cor->stack.storage) & ((uintptr_t)-2));
101        }
[210b8b3]102
[f23b685]103        // struct which calls the monitor is accepting
[025278e]104        struct __waitfor_mask_t {
105                // the index of the accepted function, -1 if none
106                short * accepted;
107
108                // list of acceptable functions, null if any
[b1672e1]109                __cfa_anonymous_object( __small_array_t(struct __acceptable_t) );
[025278e]110        };
111
[e84ab3d]112        struct monitor$ {
[025278e]113                // spinlock to protect internal data
[ea7d2b0]114                struct __spinlock_t lock;
[025278e]115
116                // current owner of the monitor
[e84ab3d]117                struct thread$ * owner;
[025278e]118
119                // queue of threads that are blocked waiting for the monitor
[e84ab3d]120                __queue_t(struct thread$) entry_queue;
[025278e]121
122                // stack of conditions to run next once we exit the monitor
[0cf5b79]123                __stack_t(struct __condition_criterion_t) signal_stack;
[025278e]124
125                // monitor routines can be called recursively, we need to keep track of that
126                unsigned int recursion;
127
128                // mask used to know if some thread is waiting for something while holding the monitor
129                struct __waitfor_mask_t mask;
130
131                // node used to signal the dtor in a waitfor dtor
132                struct __condition_node_t * dtor_node;
133        };
[038110a]134        // Wrapper for gdb
[e84ab3d]135        struct cfathread_monitor_t { struct monitor$ debug; };
[025278e]136
137        struct __monitor_group_t {
138                // currently held monitors
[e84ab3d]139                __cfa_anonymous_object( __small_array_t(monitor$*) );
[025278e]140
141                // last function that acquired monitors
[c1a9c86]142                fptr_t func;
[025278e]143        };
144
[b798713]145        // Link lists fields
146        // instrusive link field for threads
147        struct __thread_desc_link {
[e84ab3d]148                struct thread$ * next;
[1b143de]149                volatile unsigned long long ts;
[b798713]150        };
151
[e84ab3d]152        struct thread$ {
[025278e]153                // Core threading fields
[c7a900a]154                // context that is switch during a __cfactx_switch
[e8e457e]155                struct __stack_context_t context;
156
[d3ba775]157                // Link lists fields
158                // instrusive link field for threads
159                struct __thread_desc_link link;
160
[e8e457e]161                // current execution status for coroutine
[6a77224]162                // Possible values are:
163                //    - TICKET_BLOCKED (-1) thread is blocked
164                //    - TICKET_RUNNING ( 0) thread is running
165                //    - TICKET_UNBLOCK ( 1) thread should ignore next block
[ff79d5e]166                volatile int ticket;
167                enum __Coroutine_State state:8;
168                enum __Preemption_Reason preempted:8;
[e8e457e]169
[ab5baab]170                bool corctx_flag;
171
[1f45c7d]172                int last_cpu;
173
[5c1a531]174                //SKULLDUGGERY errno is not save in the thread data structure because returnToKernel appears to be the only function to require saving and restoring it
175
[37ba662]176                // pointer to the cluster on which the thread is running
177                struct cluster * curr_cluster;
178
[d3ba775]179                // preferred ready-queue
180                unsigned preferred;
[37ba662]181
[025278e]182                // coroutine body used to store context
[e84ab3d]183                struct coroutine$  self_cor;
[025278e]184
[82c948c]185                // current active context
[e84ab3d]186                struct coroutine$ * curr_cor;
[82c948c]187
[025278e]188                // monitor body used for mutual exclusion
[e84ab3d]189                struct monitor$    self_mon;
[025278e]190
191                // pointer to monitor with sufficient lifetime for current monitors
[e84ab3d]192                struct monitor$ *  self_mon_p;
[025278e]193
194                // monitors currently held by this thread
195                struct __monitor_group_t monitors;
196
[c131a02]197                // used to put threads on user data structures
198                struct {
[e84ab3d]199                        struct thread$ * next;
200                        struct thread$ * back;
[c131a02]201                } seqable;
202
[82f4063]203                // used to put threads on dlist data structure
[e84ab3d]204                __cfa_dlink(thread$);
[82f4063]205
[de94a60]206                struct {
[e84ab3d]207                        struct thread$ * next;
208                        struct thread$ * prev;
[de94a60]209                } node;
[ae66348]210
[89eff25]211                struct processor * last_proc;
212
[b4b63e8]213                #if defined( __CFA_WITH_VERIFY__ )
[ac12f1f]214                        void * canary;
[ae66348]215                #endif
[212c2187]216        };
[82f4063]217        #ifdef __cforall
[e84ab3d]218                P9_EMBEDDED( thread$, dlink(thread$) )
[82f4063]219        #endif
[038110a]220        // Wrapper for gdb
[e84ab3d]221        struct cfathread_thread_t { struct thread$ debug; };
[212c2187]222
[ae66348]223        #ifdef __CFA_DEBUG__
[e84ab3d]224                void __cfaabi_dbg_record_thrd(thread$ & this, bool park, const char prev_name[]);
[ae66348]225        #else
226                #define __cfaabi_dbg_record_thrd(x, y, z)
227        #endif
228
[212c2187]229        #ifdef __cforall
230        extern "Cforall" {
[6a490b2]231
[e84ab3d]232                static inline thread$ *& get_next( thread$ & this ) __attribute__((const)) {
[b798713]233                        return this.link.next;
[0cf5b79]234                }
235
[e84ab3d]236                static inline [thread$ *&, thread$ *& ] __get( thread$ & this ) __attribute__((const)) {
[de94a60]237                        return this.node.[next, prev];
238                }
239
[e84ab3d]240                static inline thread$ * volatile & ?`next ( thread$ * this )  __attribute__((const)) {
[d3314ae]241                        return this->seqable.next;
[304de00]242                }
243
[e84ab3d]244                static inline thread$ *& Back( thread$ * this ) __attribute__((const)) {
[c131a02]245                        return this->seqable.back;
246                }
247
[e84ab3d]248                static inline thread$ *& Next( thread$ * this ) __attribute__((const)) {
[82f4063]249                                return this->seqable.next;
[c131a02]250                }
251
[e84ab3d]252                static inline bool listed( thread$ * this ) {
[c131a02]253                        return this->seqable.next != 0p;
254                }
255
[0cf5b79]256                static inline void ?{}(__monitor_group_t & this) {
[121be3e]257                        (this.data){0p};
[0cf5b79]258                        (this.size){0};
259                        (this.func){NULL};
260                }
261
[e84ab3d]262                static inline void ?{}(__monitor_group_t & this, struct monitor$ ** data, __lock_size_t size, fptr_t func) {
[0cf5b79]263                        (this.data){data};
264                        (this.size){size};
265                        (this.func){func};
[025278e]266                }
267
[8c50aed]268                static inline bool ?==?( const __monitor_group_t & lhs, const __monitor_group_t & rhs ) __attribute__((const)) {
[0cf5b79]269                        if( (lhs.data != 0) != (rhs.data != 0) ) return false;
[025278e]270                        if( lhs.size != rhs.size ) return false;
271                        if( lhs.func != rhs.func ) return false;
272
273                        // Check that all the monitors match
274                        for( int i = 0; i < lhs.size; i++ ) {
275                                // If not a match, check next function
276                                if( lhs[i] != rhs[i] ) return false;
277                        }
278
279                        return true;
280                }
[0cf5b79]281
282                static inline void ?=?(__monitor_group_t & lhs, const __monitor_group_t & rhs) {
283                        lhs.data = rhs.data;
284                        lhs.size = rhs.size;
285                        lhs.func = rhs.func;
286                }
[025278e]287        }
288        #endif
[b18830e]289
[5c81105]290#endif //_INVOKE_H_
291#else //! defined(__CFA_INVOKE_PRIVATE__)
292#ifndef _INVOKE_PRIVATE_H_
293#define _INVOKE_PRIVATE_H_
[b227f68]294
[025278e]295        struct machine_context_t {
296                void *SP;
297                void *FP;
298                void *PC;
299        };
300
301        // assembler routines that performs the context switch
[c7a900a]302        extern void __cfactx_invoke_stub( void );
303        extern void __cfactx_switch( struct __stack_context_t * from, struct __stack_context_t * to ) asm ("__cfactx_switch");
[212c2187]304        // void CtxStore ( void * this ) asm ("CtxStore");
305        // void CtxRet   ( void * dst  ) asm ("CtxRet");
[025278e]306
[5c81105]307#endif //_INVOKE_PRIVATE_H_
308#endif //! defined(__CFA_INVOKE_PRIVATE__)
[0cf5b79]309#ifdef __cforall
[5c81105]310}
311#endif
[6b0b624]312
313// Local Variables: //
314// mode: c //
315// tab-width: 4 //
316// End: //
Note: See TracBrowser for help on using the repository browser.