多线程(五)

  • @sychronized
    可以在多线程下进行递归调用,那么是怎么做到在多线程下进行递归调用的呢?我们通过终端编译然后进行分析。首先,在main.m中,调用
 NSObject *obj = [NSObject new];
        @synchronized (obj) {
            
        }

在main.m所在的文件夹中,执行clang -rewrite-objc main.m,在对应的文件夹下,生成了一个main.cpp的文件,打开文件,找到如上代码编译后的代码

  { 
      id _rethrow = 0; 
      id _sync_obj = (id)obj; 
      objc_sync_enter(_sync_obj);
        try {
            struct _SYNC_EXIT { 
                _SYNC_EXIT(id arg) : sync_exit(arg) {}
                ~_SYNC_EXIT() {objc_sync_exit(sync_exit);}
                id sync_exit;
            } _sync_exit(_sync_obj);

         } catch (id e) {_rethrow = e;}
        { 
            struct _FIN { _FIN(id reth) : rethrow(reth) {}
            ~_FIN() { if (rethrow) objc_exception_throw(rethrow); }
            id rethrow;
            } _fin_force_rethow(_rethrow);}
        }

在源码中,首先执行了 objc_sync_enter(_sync_obj);
下面是一个try-catch块,主要是看try内容,catch的内容主要是异常处理。
在try的内容中,定义了一个结构体_SYNC_EXIT,内部有一个构造函数objc_sync_exit(sync_exit),在末尾出调用了构造函数_sync_exit(_sync_obj);,那也就是@sychronized这把锁内部最重要的两个函数objc_sync_enter和objc_sync_exit,从源码中去查看对应的函数实现。

int objc_sync_enter(id obj)
{
    int result = OBJC_SYNC_SUCCESS;

    if (obj) {
        SyncData* data = id2data(obj, ACQUIRE);
        ASSERT(data);
        data->mutex.lock();
    } else {
        // @synchronized(nil) does nothing
        if (DebugNilSync) {
            _objc_inform("NIL SYNC DEBUG: @synchronized(nil); set a breakpoint on objc_sync_nil to debug");
        }
        objc_sync_nil();
    }

    return result;
}
int objc_sync_exit(id obj)
{
    int result = OBJC_SYNC_SUCCESS;
    
    if (obj) {
        SyncData* data = id2data(obj, RELEASE); 
        if (!data) {
            result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR;
        } else {
            bool okay = data->mutex.tryUnlock();
            if (!okay) {
                result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR;
            }
        }
    } else {
        // @synchronized(nil) does nothing
    }
    

    return result;
}

首先,objc_sync_enter和objc_sync_exit对传入的obj进行了判断,如果为空的话,则什么也不做,在注释里也可以看出来。
第二点,无论是enter还是exit,所依赖的数据就是SyncData,通过id2data来获取,enter传入的是ACQUIRE,而exit则是RELEASE。我们继续来看一下SyncData的数据结构

typedef struct alignas(CacheLineSize) SyncData {
    struct SyncData* nextData;
    DisguisedPtr<objc_object> object;
    int32_t threadCount;  // number of THREADS using this block
    recursive_mutex_t mutex;
} SyncData;
  • struct SyncData* nextData; 表示SyncData是一个单向链表,由一连串的节点组成,记录了这一系列的数据
  • DisguisedPtr<objc_object> object; 对数据进行了统一的封装
  • int32_t threadCount;记录使用block的线程数量
  • recursive_mutex_t mutex; 是一把递归锁

在enter中利用nutex进行了加锁,在exit的时候,进行了递归解锁。在内部记录使用了block的线程数量,通过记录线程数据和递归锁来实现多线程递归调用,那么如何通过线程记录和递归锁来实现递归调用的呢?SyncData是因为id2data来得到的,我们就继续看一下id2data的实现,总共分为四部分。


id2data开头位置实现
  • listp是指向链表的指针,即是链表的头指针。
    而lockphe 和listp都来自于sDataLists,sDataLists是StripedMap类型,StripedMap在里面描述了真机是8个,模拟器是64个,是用来缓存带spinlock锁能力的类或者结构体。
  • 第一部分
// Check per-thread single-entry fast cache for matching object
    bool fastCacheOccupied = NO;
    SyncData *data = (SyncData *)tls_get_direct(SYNC_DATA_DIRECT_KEY);
    if (data) {
        fastCacheOccupied = YES;

        if (data->object == object) {
            // Found a match in fast cache.
            uintptr_t lockCount;

            result = data;
            lockCount = (uintptr_t)tls_get_direct(SYNC_COUNT_DIRECT_KEY);
            if (result->threadCount <= 0  ||  lockCount <= 0) {
                _objc_fatal("id2data fastcache is buggy");
            }

            switch(why) {
            case ACQUIRE: {
                lockCount++;
                tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);
                break;
            }
            case RELEASE:
                lockCount--;
                tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);
                if (lockCount == 0) {
                    // remove from fast cache
                    tls_set_direct(SYNC_DATA_DIRECT_KEY, NULL);
                    // atomic because may collide with concurrent ACQUIRE
                    OSAtomicDecrement32Barrier(&result->threadCount);
                }
                break;
            case CHECK:
                // do nothing
                break;
            }

            return result;
        }
    }

通过注释可以看出fast cache,也就是快速缓存,检查每一条线程的快速缓存。
快速缓存也是从tls里面获取的,通过SYNC_DATA_DIRECT_KEY来获取。通过标识位的方式,如果找到了对应的数据,就将标识为设置为yes,而且判断当前的object与data的object是否相等,如果相等的话,下面的流程跟第二部分是一样的,后续可以看第二部分。

  • 第二部分
    为匹配数据检查已经拥有锁的每个线程缓存
    Check per-thread cache of already-owned locks for matching object
    通过fetch_cache获取_objc_pthread_data
// objc per-thread storage
typedef struct {
    struct _objc_initializing_classes *initializingClasses; // for +initialize
    struct SyncCache *syncCache;  // for @synchronize
    struct alt_handler_list *handlerList;  // for exception alt handlers
    char *printableNames[4];  // temporary demangled names for logging
    const char **classNameLookups;  // for objc_getClass() hooks
    unsigned classNameLookupsAllocated;
    unsigned classNameLookupsUsed;

    // If you add new fields here, don't forget to update 
    // _objc_pthread_destroyspecific()

} _objc_pthread_data;
    SyncData *data;
    unsigned int lockCount;  // number of times THIS THREAD locked this block
} SyncCacheItem;

typedef struct SyncCache {
    unsigned int allocated;
    unsigned int used;
    SyncCacheItem list[0];
} SyncCache;

_objc_pthread_data是个结构体,结构体中包含SyncCache *syncCache;,看注释可以知道这个是储存的@synchronize相关的数据,其中SyncCache结构体中有一个参数为SyncCacheItem list[0];,在SyncCacheItem中有一个参数为lockCount,记录的就是当前线程锁定此block的次数。

 SyncCache *cache = fetch_cache(NO);
    if (cache) {
        unsigned int I;
        for (i = 0; i < cache->used; i++) {
            SyncCacheItem *item = &cache->list[I];
            if (item->data->object != object) continue;

            // Found a match.
            result = item->data;
            if (result->threadCount <= 0  ||  item->lockCount <= 0) {
                _objc_fatal("id2data cache is buggy");
            }
                
            switch(why) {
            case ACQUIRE:
                item->lockCount++;
                break;
            case RELEASE:
                item->lockCount--;
                if (item->lockCount == 0) {
                    // remove from per-thread cache
                    cache->list[i] = cache->list[--cache->used];
                    // atomic because may collide with concurrent ACQUIRE
                    OSAtomicDecrement32Barrier(&result->threadCount);
                }
                break;
            case CHECK:
                // do nothing
                break;
            }

            return result;
        }
    }

那么这整个第二部分的代码解读就可以理解为遍历cache,在cach中以SyncCacheItem存在,包含SyncData以及锁定此block的次数lockCount,而SyncData保存着我们传递给sychronized这把锁要锁定的对象,跟我们现在要加锁的对象进行对比,如果不相等的话就继续遍历。如果相等就是找到了,然后进入switch结构,ACQUIRE加锁,SyncCacheItem 的lockCount++。RELEASE就进行lockCount--,如果等于0了,就是完全解锁了,把cache里面的数据,调用OSAtomicDecrement32Barrier就是将当前对应的对象的SyncData的记录加锁线程的数量进行-1的操作。
整部分的操作就是从我们的TLS线程的局部空间寻找对应的缓存对象的SyncData,如果找到了对应的SyncData,就进行相应的线程加锁次数的加减操作,然后返回对象,然后 通过id2data就得到了对应的SyncData,然后对当前对象进行加锁减锁

从以上两部分可以看出,数据结构为


image.png

然后通过id2data获取syncData,首先从快速缓存中去找,没找到的话,就是从整个线程的缓存中去找,然后遍历cache,找到syncCacheItem,然后通过加锁对象object去跟缓存中的syncData的objc进行对比找到对应的syncData,最后通过syncData里面的mutex进行加锁减锁的操作,threadCount记录的是当前被锁对象的加锁的线程数量。syncCacheItem的lockCount记录的是当前线程对block加锁的数量,即递归加锁的次数。

  • 第三部分
    从线程缓存中没有找到对应的syncData,则进行第三部分。
 SyncData* p;
        SyncData* firstUnused = NULL;
        for (p = *listp; p != NULL; p = p->nextData) {
            if ( p->object == object ) {
                result = p;
                // atomic because may collide with concurrent RELEASE
                OSAtomicIncrement32Barrier(&result->threadCount);
                goto done;
            }
            if ( (firstUnused == NULL) && (p->threadCount == 0) )
                firstUnused = p;
        }
    
        // no SyncData currently associated with object
        if ( (why == RELEASE) || (why == CHECK) )
            goto done;
    
        // an unused one was found, use it
        if ( firstUnused != NULL ) {
            result = firstUnused;
            result->object = (objc_object *)object;
            result->threadCount = 1;
            goto done;
        }

listp在开头的时候说过是syncData单向链表的的头指针,从开头部分说的真机是8个,模拟器是64张StripedMap表中去查找,判断每一个节点的object是否与当前要加锁的object相等,相等的话就是当前对象第一次加锁,进行OSAtomicIncrement32Barrier记录线程数量+1,然后进行goto done,如下所示

  • goto done部分
if (result) {
        // Only new ACQUIRE should get here.
        // All RELEASE and CHECK and recursive ACQUIRE are 
        // handled by the per-thread caches above.
        if (why == RELEASE) {
            // Probably some thread is incorrectly exiting 
            // while the object is held by another thread.
            return nil;
        }
        if (why != ACQUIRE) _objc_fatal("id2data is buggy");
        if (result->object != object) _objc_fatal("id2data is buggy");

#if SUPPORT_DIRECT_THREAD_KEYS
        if (!fastCacheOccupied) {
            // Save in fast thread cache
            tls_set_direct(SYNC_DATA_DIRECT_KEY, result);
            tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)1);
        } else 
#endif
        {
            // Save in thread cache
            if (!cache) cache = fetch_cache(YES);
            cache->list[cache->used].data = result;
            cache->list[cache->used].lockCount = 1;
            cache->used++;
        }
    }

因为是首次加锁,所以只有ACQUIRE才会走到这里,所以当是RELEASE的时候直接return nil,然后是一些异常判断。
接下来,首先判断快速缓存中是否存在,如果不存在则将该对象存入快速缓存。如果快速缓存中已经存在,则存入线程缓存。

  • 第四部分
如果在表里也没有找到相应的数据
posix_memalign((void **)&result, alignof(SyncData), sizeof(SyncData));
    result->object = (objc_object *)object;
    result->threadCount = 1;
    new (&result->mutex) recursive_mutex_t(fork_unsafe_lock);
    result->nextData = *listp;
    *listp = result;

那就说明这个对象是第一次进来加锁,表中没有对应的数据,初始化线程数=1,关联object对象,初始化一把锁,然后放入单向链表里面。
这是整个id2data的所有内容。首先通过object在快速缓存中去找,如果没有找到,则去整个线程缓存中去找,匹配到相应的syncData则操作线程锁数量的加减,如果在线程缓存中也没有找到,则去相应的listp的表中去寻找,然后对object做对应的操作,如果在线程缓存中没有找到,则去表中去找,如果表中也没有找到,则去初始化一个表然后加入表中。

最后
所以为什么能够多线程递归调用,是因为@sychronized每一条线程都有一把锁,记录在缓存中syncCacheItem然后记录着syncData,每个syncData都有一个mutex的递归锁,每一条线程都可以进行递归调用。而NSRecurseive为什么不在多线程递归调用,是因为它只有这一把锁,而@sychronized每一条线程都有一把锁,可以记录每条线程的枷锁次数,所以可以多线程递归调用。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。