source: libcfa/src/concurrency/invoke.h @ eb5dbfd

Last change on this file since eb5dbfd was 55b060d, checked in by Peter A. Buhr <pabuhr@…>, 14 months ago

rename directories containers to collections

  • Property mode set to 100644
File size: 9.8 KB
RevLine 
[8def349]1//
2// Cforall Version 1.0.0 Copyright (C) 2016 University of Waterloo
3//
4// The contents of this file are covered under the licence agreement in the
5// file "LICENCE" distributed with Cforall.
6//
7// invoke.h --
8//
9// Author           : Thierry Delisle
10// Created On       : Tue Jan 17 12:27:26 2016
[6b0b624]11// Last Modified By : Peter A. Buhr
[55b060d]12// Last Modified On : Wed Aug 30 21:27:51 2023
13// Update Count     : 60
[8def349]14//
15
[c19ca4b]16// No not use #pragma once was this file is included twice in some places. It has its own guard system.
[5e4a830]17
[55b060d]18#include "bits/collections.hfa"
[73abe95]19#include "bits/defs.hfa"
20#include "bits/locks.hfa"
[9fce2572]21#include "bits/random.hfa"
[3e2b9c9]22#include "kernel/fwd.hfa"
[78b3f52]23
[0cf5b79]24#ifdef __cforall
[55b060d]25#include "collections/list.hfa"
[5c81105]26extern "C" {
27#endif
28
29#if ! defined(__CFA_INVOKE_PRIVATE__)
[78b3f52]30#ifndef _INVOKE_H_
31#define _INVOKE_H_
32
[eaf269d]33        enum { DEFAULT_STACK_SIZE = 65000 };
34
[80ec409]35        struct __cfaehm_try_resume_node;
36        struct __cfaehm_base_exception_t;
37        struct exception_context_t {
38                struct __cfaehm_try_resume_node * top_resume;
39                struct __cfaehm_base_exception_t * current_exception;
40        };
41
[b2f6113]42        struct __stack_context_t {
43                void * SP;
44                void * FP;
45        };
46
47        // low adresses  :           +----------------------+ <- start of allocation
48        //                           |  optional guard page |
49        //                           +----------------------+ <- __stack_t.limit
50        //                           |                      |
51        //                           |       /\ /\ /\       |
52        //                           |       || || ||       |
53        //                           |                      |
54        //                           |    program  stack    |
55        //                           |                      |
56        // __stack_info_t.storage -> +----------------------+ <- __stack_t.base
57        //                           |      __stack_t       |
58        // high adresses :           +----------------------+ <- end of allocation
59
60        struct __stack_t {
61                // stack grows towards stack limit
62                void * limit;
63
64                // base of stack
65                void * base;
[80ec409]66
67                // Information for exception handling.
68                struct exception_context_t exception_context;
[b2f6113]69        };
70
71        struct __stack_info_t {
72                // pointer to stack
73                struct __stack_t * storage;
[025278e]74        };
75
[2fe64ba]76    struct nonlocal_ehm {
77        // list of pending nonlocal exceptions
78        __queue_t(struct nonlocal_exception) ehm_buffer;
79
80        // lock to protect the buffer
81        struct __spinlock_t buffer_lock;
82
83        // enable/disabled flag
84        bool ehm_enabled;
85    };
86
[3ea8ad1]87        enum __Coroutine_State { Halted, Start, Primed, Blocked, Ready, Active, Cancelled, Halting };
[025278e]88
[e84ab3d]89        struct coroutine$ {
[c7a900a]90                // context that is switch during a __cfactx_switch
[b2f6113]91                struct __stack_context_t context;
92
[76e069f]93                // stack information of the coroutine
[b2f6113]94                struct __stack_info_t stack;
[76e069f]95
[e8e457e]96                // textual name for coroutine/task
[76e069f]97                const char * name;
98
99                // current execution status for coroutine
[ff79d5e]100                enum __Coroutine_State state;
[b2f6113]101
[76e069f]102                // first coroutine to resume this one
[e84ab3d]103                struct coroutine$ * starter;
[76e069f]104
105                // last coroutine to resume this one
[e84ab3d]106                struct coroutine$ * last;
[76e069f]107
108                // If non-null stack must be unwound with this exception
109                struct _Unwind_Exception * cancellation;
110
[2fe64ba]111        // Non-local exception handling information
112        struct nonlocal_ehm ehm_state;
[025278e]113        };
[038110a]114        // Wrapper for gdb
[e84ab3d]115        struct cfathread_coroutine_t { struct coroutine$ debug; };
[025278e]116
[e84ab3d]117        static inline struct __stack_t * __get_stack( struct coroutine$ * cor ) {
[80ec409]118                return (struct __stack_t*)(((uintptr_t)cor->stack.storage) & ((uintptr_t)-2));
119        }
[210b8b3]120
[f23b685]121        // struct which calls the monitor is accepting
[025278e]122        struct __waitfor_mask_t {
123                // the index of the accepted function, -1 if none
124                short * accepted;
125
126                // list of acceptable functions, null if any
[b1672e1]127                __cfa_anonymous_object( __small_array_t(struct __acceptable_t) );
[025278e]128        };
129
[e84ab3d]130        struct monitor$ {
[025278e]131                // spinlock to protect internal data
[ea7d2b0]132                struct __spinlock_t lock;
[025278e]133
134                // current owner of the monitor
[e84ab3d]135                struct thread$ * owner;
[025278e]136
137                // queue of threads that are blocked waiting for the monitor
[e84ab3d]138                __queue_t(struct thread$) entry_queue;
[025278e]139
140                // stack of conditions to run next once we exit the monitor
[0cf5b79]141                __stack_t(struct __condition_criterion_t) signal_stack;
[025278e]142
143                // monitor routines can be called recursively, we need to keep track of that
144                unsigned int recursion;
145
146                // mask used to know if some thread is waiting for something while holding the monitor
147                struct __waitfor_mask_t mask;
148
149                // node used to signal the dtor in a waitfor dtor
150                struct __condition_node_t * dtor_node;
151        };
[038110a]152        // Wrapper for gdb
[e84ab3d]153        struct cfathread_monitor_t { struct monitor$ debug; };
[025278e]154
155        struct __monitor_group_t {
156                // currently held monitors
[e84ab3d]157                __cfa_anonymous_object( __small_array_t(monitor$*) );
[025278e]158
159                // last function that acquired monitors
[c1a9c86]160                fptr_t func;
[025278e]161        };
162
[b798713]163        // Link lists fields
[639e4fc]164        // instrusive link field for threads in the ready-queue
[b798713]165        struct __thread_desc_link {
[e84ab3d]166                struct thread$ * next;
[1b143de]167                volatile unsigned long long ts;
[b798713]168        };
169
[639e4fc]170        // Link lists fields
171        // instrusive link field for threads in the user_link/cltr_link
172        struct __thread_user_link {
173                #ifdef __cforall
174                        inline dlink(thread$);
175                #else
176                        struct thread$ * next; struct thread$ * back;
177                #endif
178        };
179        _Static_assert(sizeof(struct __thread_user_link) == 2 * sizeof(struct thread$ *), "__thread_user_link should be consistent in C and Cforall");
180
[e84ab3d]181        struct thread$ {
[025278e]182                // Core threading fields
[c7a900a]183                // context that is switch during a __cfactx_switch
[e8e457e]184                struct __stack_context_t context;
185
[d3ba775]186                // Link lists fields
187                // instrusive link field for threads
[15c93d8]188                struct __thread_desc_link rdy_link;
[d3ba775]189
[e8e457e]190                // current execution status for coroutine
[6a77224]191                // Possible values are:
192                //    - TICKET_BLOCKED (-1) thread is blocked
193                //    - TICKET_RUNNING ( 0) thread is running
194                //    - TICKET_UNBLOCK ( 1) thread should ignore next block
[ff79d5e]195                volatile int ticket;
196                enum __Coroutine_State state:8;
197                enum __Preemption_Reason preempted:8;
[e8e457e]198
[ab5baab]199                bool corctx_flag;
200
[5c1a531]201                //SKULLDUGGERY errno is not save in the thread data structure because returnToKernel appears to be the only function to require saving and restoring it
202
[37ba662]203                // pointer to the cluster on which the thread is running
204                struct cluster * curr_cluster;
205
[24e321c]206                // preferred ready-queue or CPU
[d3ba775]207                unsigned preferred;
[37ba662]208
[025278e]209                // coroutine body used to store context
[e84ab3d]210                struct coroutine$  self_cor;
[025278e]211
[82c948c]212                // current active context
[e84ab3d]213                struct coroutine$ * curr_cor;
[82c948c]214
[025278e]215                // monitor body used for mutual exclusion
[e84ab3d]216                struct monitor$    self_mon;
[025278e]217
218                // pointer to monitor with sufficient lifetime for current monitors
[e84ab3d]219                struct monitor$ *  self_mon_p;
[025278e]220
221                // monitors currently held by this thread
222                struct __monitor_group_t monitors;
223
[cd5b58f]224                // intrusive link fields, used for locks, monitors and any user defined data structure
225                // default link fields for dlist
[639e4fc]226                struct __thread_user_link user_link;
[82f4063]227
[cd5b58f]228                // secondary intrusive link fields, used for global cluster list
229                // default link fields for dlist
[639e4fc]230                struct __thread_user_link cltr_link;
[ae66348]231
[89eff25]232                struct processor * last_proc;
233
[beeff61e]234        // ptr used during handover between blocking lists to allow for stack allocation of intrusive nodes
235        // main use case is wait-morphing to allow a different node to be used to block on condvar vs lock
236        void * link_node;
237
[dd46fd3]238                PRNG_STATE_T random_state;                                              // fast random numbers
[2210cfc]239
[b4b63e8]240                #if defined( __CFA_WITH_VERIFY__ )
[878cfcc]241                        struct processor * volatile executing;
[ac12f1f]242                        void * canary;
[ae66348]243                #endif
[212c2187]244        };
[2856982c]245
[038110a]246        // Wrapper for gdb
[e84ab3d]247        struct cfathread_thread_t { struct thread$ debug; };
[212c2187]248
[ae66348]249        #ifdef __CFA_DEBUG__
[e84ab3d]250                void __cfaabi_dbg_record_thrd(thread$ & this, bool park, const char prev_name[]);
[ae66348]251        #else
252                #define __cfaabi_dbg_record_thrd(x, y, z)
253        #endif
254
[212c2187]255        #ifdef __cforall
256        extern "Cforall" {
[b93bf85]257        static inline bool exception_in_flight() {
258            return __get_stack( &active_thread()->self_cor )->exception_context.current_exception != 0p;
259        }
260
[cd5b58f]261                static inline thread$ * volatile & ?`next ( thread$ * this ) {
262                        return this->user_link.next;
263                }
[6a490b2]264
[e84ab3d]265                static inline thread$ *& get_next( thread$ & this ) __attribute__((const)) {
[be5f0a5]266                        return this.user_link.next;
[0cf5b79]267                }
268
[2856982c]269                static inline tytagref( dlink(thread$), dlink(thread$) ) ?`inner( thread$ & this ) {
270                        dlink(thread$) & b = this.user_link;
271                        tytagref( dlink(thread$), dlink(thread$) ) result = { b };
272                        return result;
273                }
274
[639e4fc]275                static inline tytagref(struct __thread_user_link, dlink(thread$)) ?`inner( struct thread$ & this ) {
276                        struct __thread_user_link & ib = this.cltr_link;
[6a4ef0c]277                        dlink(thread$) & b = ib`inner;
[639e4fc]278                        tytagref(struct __thread_user_link, dlink(thread$)) result = { b };
[6a4ef0c]279                        return result;
280                }
281
[639e4fc]282                P9_EMBEDDED(struct __thread_user_link, dlink(thread$))
[cd5b58f]283
[0cf5b79]284                static inline void ?{}(__monitor_group_t & this) {
[121be3e]285                        (this.data){0p};
[0cf5b79]286                        (this.size){0};
287                        (this.func){NULL};
288                }
289
[e84ab3d]290                static inline void ?{}(__monitor_group_t & this, struct monitor$ ** data, __lock_size_t size, fptr_t func) {
[0cf5b79]291                        (this.data){data};
292                        (this.size){size};
293                        (this.func){func};
[025278e]294                }
295
[8c50aed]296                static inline bool ?==?( const __monitor_group_t & lhs, const __monitor_group_t & rhs ) __attribute__((const)) {
[0cf5b79]297                        if( (lhs.data != 0) != (rhs.data != 0) ) return false;
[025278e]298                        if( lhs.size != rhs.size ) return false;
299                        if( lhs.func != rhs.func ) return false;
300
301                        // Check that all the monitors match
302                        for( int i = 0; i < lhs.size; i++ ) {
303                                // If not a match, check next function
304                                if( lhs[i] != rhs[i] ) return false;
305                        }
306
307                        return true;
308                }
[0cf5b79]309
310                static inline void ?=?(__monitor_group_t & lhs, const __monitor_group_t & rhs) {
311                        lhs.data = rhs.data;
312                        lhs.size = rhs.size;
313                        lhs.func = rhs.func;
314                }
[025278e]315        }
316        #endif
[b18830e]317
[5c81105]318#endif //_INVOKE_H_
319#else //! defined(__CFA_INVOKE_PRIVATE__)
320#ifndef _INVOKE_PRIVATE_H_
321#define _INVOKE_PRIVATE_H_
[b227f68]322
[025278e]323        struct machine_context_t {
324                void *SP;
325                void *FP;
326                void *PC;
327        };
328
329        // assembler routines that performs the context switch
[c7a900a]330        extern void __cfactx_invoke_stub( void );
331        extern void __cfactx_switch( struct __stack_context_t * from, struct __stack_context_t * to ) asm ("__cfactx_switch");
[212c2187]332        // void CtxStore ( void * this ) asm ("CtxStore");
333        // void CtxRet   ( void * dst  ) asm ("CtxRet");
[025278e]334
[5c81105]335#endif //_INVOKE_PRIVATE_H_
336#endif //! defined(__CFA_INVOKE_PRIVATE__)
[0cf5b79]337#ifdef __cforall
[5c81105]338}
339#endif
[6b0b624]340
341// Local Variables: //
342// mode: c //
343// tab-width: 4 //
344// End: //
Note: See TracBrowser for help on using the repository browser.