Linux线程同步:高速缓存
作者:互联网
一、线程同步的概念
线程同步?怎么同步?一起运行?一起停止?我当年听说线程同步这个词的时候,也是一头雾水。
在人们的日常生活中的锁大概有两种:一种是不允许访问;另一种是资源忙,同一时间只允许一个使用者占用,其它使用者必须要等待。
1)不允许访问的锁容易理解,就像每家每户的门锁,不允许外人进入。
2)第二种锁,例如火车上的厕所,它是公共的,空闲的时候任何人可以进入,人进去以后就会把它锁起来,其它的人如果要上厕所,必须等待解锁,即里面的人出来。还有红绿灯,红灯是加锁,绿灯是解锁。
对多线程来说,资源是共享的,基本上不存在不允许访问的情况,但是,共享的资源在某一时间点只能有一个线程占用,所以需要给资源加锁。
不知道是什么人采用了线程同步这个词,如果让我的命名,我会定义为线程锁,锁线程吗?不是,是锁共享资源,线程给共享资源加的锁。
线程的锁的种类有互斥锁、读写锁、条件变量、自旋锁、信号灯。
在本章节中,只介绍互斥锁,其它的锁应用场景复杂,开发难度很大,不合适初学者。
二、互斥锁
互斥锁机制是同一时刻只允许一个线程占有共享的资源。
1、初始化锁
int pthread_mutex_init(pthread_mutex_t *mutex,const pthread_mutex_attr_t *mutexattr);
其中参数 mutexattr 用于指定锁的属性(见下),如果为NULL则使用缺省属性。
互斥锁的属性在创建锁的时候指定,当资源被某线程锁住的时候,其它的线程在试图加锁时表现将不同。当前有四个值可供选择:
1)PTHREAD_MUTEX_TIMED_NP,这是缺省值,也就是普通锁。当一个线程加锁以后,其余请求锁的线程将形成一个等待队列,并在解锁后按优先级获得锁。这种锁策略保证了资源分配的公平性。
2)PTHREAD_MUTEX_RECURSIVE_NP,嵌套锁,允许同一个线程对同一个锁成功获得多次,并通过多次unlock解锁。
3)PTHREAD_MUTEX_ERRORCHECK_NP,检错锁,如果同一个线程请求同一个锁,则返回EDEADLK,否则与PTHREAD_MUTEX_TIMED_NP类型动作相同。
4)PTHREAD_MUTEX_ADAPTIVE_NP,适应锁,动作最简单的锁类型,等待解锁后重新竞争。
2、阻塞加锁
int pthread_mutex_lock(pthread_mutex *mutex);
如果是锁是空闲状态,本线程将获得这个锁;如果锁已经被占据,本线程将排队等待,直到成功的获取锁。
3、非阻塞加锁
int pthread_mutex_trylock( pthread_mutex_t *mutex);
该函数语义与 pthread_mutex_lock() 类似,不同的是在锁已经被占据时立即返回 EBUSY,不是挂起等待。
4、解锁
int pthread_mutex_unlock(pthread_mutex *mutex);
线程把自己持有的锁释放。
5、销毁锁(此时锁必需unlock状态,否则返回EBUSY)
int pthread_mutex_destroy(pthread_mutex *mutex);
三、示例程序
多线程可以共享资源(变量和对象),对编程带来了方便,但是某些对象虽然可以共享,但在同一个时间只能由一个线程使用,多个线程同时使用会产生冲突,例如socket连接,数据库连接池。
我们把前几章节的socket客户端程序book247.cpp修改为多线程。
示例(book263.cpp)
#include <stdio.h> #include <string.h> #include <unistd.h> #include <netdb.h> #include <sys/types.h> #include <sys/socket.h> #include <arpa/inet.h> #include <pthread.h> //xx pthread_mutex_t mutex; // 申明一个互斥锁 // 与客户端通信线程的主函数 void *pth_main(void *arg) { int pno=(long)arg; // 线程编号 pthread_detach(pthread_self()); char strbuffer[1024]; for (int ii=0;ii<3;ii++) // 与服务端进行3次交互。 { //xx pthread_mutex_lock(&mutex); // 加锁 memset(strbuffer,0,sizeof(strbuffer)); sprintf(strbuffer,"线程%d:这是第%d个超级女生,编号%03d。",pno,ii+1,ii+1); if (TcpClient.Send(strbuffer,strlen(strbuffer))<=0) break; printf("发送:%s\n",strbuffer); memset(strbuffer,0,sizeof(strbuffer)); if (TcpClient.Recv(strbuffer,sizeof(strbuffer))<=0) break; printf("线程%d接收:%s\n",pno,strbuffer); //xx pthread_mutex_unlock(&mutex); // 释放锁 // usleep(100); // usleep(100),否则其它的线程无法获得锁。 } pthread_exit(0); } int main() { // 向服务器发起连接请求 if (TcpClient.ConnectToServer("172.16.0.15",5051)==false) { printf("TcpClient.ConnectToServer(\"172.16.0.15\",5051) failed,exit...\n"); return -1; } //xx pthread_mutex_init(&mutex,0); // 创建锁 pthread_t pthid1,pthid2; pthread_create(&pthid1,NULL,pth_main,(void*)1); // 创建第一个线程 pthread_create(&pthid2,NULL,pth_main,(void*)2); // 创建第二个线程 pthread_join(pthid1,NULL); // 等待线程1退出。 pthread_join(pthid2,NULL); // 等待线程2退出。 //xx pthread_mutex_lock(&mutex); // 销毁锁 }
在book263.cpp程序中,客户端成功连上服务器后,创建两个线程,同时与服务端进行通信,发送3个请求报文并接收服务端的回应。
book263.cpp暂时不启用锁,先试试效果。
启动服务端程序book261,然后再启动book263。
运行效果
大家仔细研究一下book263运行的结果,可以发现客户端的两个线程的报文收发出现了混乱。
把book263.cpp的线程锁代码启用,编译运行。
运行效果
非常棒,这正在我们想要的结果。
四、条件变量
四、条件变量 与互斥锁
五、生产者和消费者模型:互斥锁和条件变量来实现(高速缓存)
1、如果在一个循环里面加锁或者解锁,应该usleep,否则该线程会处理所有数据;
2、如果条件触发是signal,只有一个线程会被唤醒去处理数据,但是broadcast所有线程会被唤醒去处理数据;
3、pthread_cond_broadcast应该尽量在解锁的外面,而且加锁或者解锁时间越短越好;
六、信号量
七、信号量
八、读写锁
标签:加锁,解锁,Linux,互斥,mutex,pthread,线程,高速缓存 来源: https://blog.csdn.net/qq_41962968/article/details/121588038