系统相关
首页 > 系统相关> > c – 共享内存IPC同步(无锁)

c – 共享内存IPC同步(无锁)

作者:互联网

请考虑以下情形:

要求:

> Intel x64 Server(多个CPU插槽=> NUMA)
> Ubuntu 12,GCC 4.6
>两个进程在(命名)共享内存上共享大量数据
>古典生产者 – 消费者情景
>内存安排在循环缓冲区(带M个元素)

程序序列(伪代码):

流程A(生产者):

int bufferPos = 0;
while( true )
{
    if( isBufferEmpty( bufferPos ) )
    {
        writeData( bufferPos );
        setBufferFull( bufferPos );

        bufferPos = ( bufferPos + 1 ) % M;
    }
}

流程B(消费者):

int bufferPos = 0;
while( true )
{
    if( isBufferFull( bufferPos ) )
    {
        readData( bufferPos );
        setBufferEmpty( bufferPos );

        bufferPos = ( bufferPos + 1 ) % M;
    }
}

现在这个古老的问题:如何有效地同步它们!?

>使用互斥锁保护每次读/写访问
>引入“宽限期”,允许写入完成:当缓冲区(N 3)被标记为已满时,读取缓冲区N中的数据(危险,但似乎有效…)
>?!?

理想情况下,我希望在内存屏障的方面做一些事情,这可以保证所有先前的读/写在所有CPU中都可见,顺序如下:

writeData( i );
MemoryBarrier();

//All data written and visible, set flag
setBufferFull( i );

这样,我只需要监视缓冲区标志,然后就可以安全地读取大数据块.

一般来说,我正在寻找像Preshing这里描述的获取/释放栅栏的东西:

http://preshing.com/20130922/acquire-and-release-fences/

(如果我理解正确的话,C 11原子只适用于单个进程的线程,而不适用于多个进程.)

然而,GCC自己的内存障碍(__sync_synchronize与编译器屏障asm volatile(“”:::“内存”)结合起来)似乎没有按预期工作,因为写入在屏障之后变得可见,当我期望他们完成.

任何帮助,将不胜感激…

顺便说一句:在Windows下,使用volatile变量(Microsoft特定行为)可以正常工作……

解决方法:

Boost Interprocess支持共享内存.

Boost Lockfree具有Single-Producer Single-Consumer队列类型(spsc_queue).这基本上就是你所说的循环缓冲区.

这是一个使用此队列以无锁方式传递IPC消息(在本例中为string类型)的演示.

定义类型

首先,让我们定义我们的类型:

namespace bip = boost::interprocess;
namespace shm
{
    template <typename T>
        using alloc = bip::allocator<T, bip::managed_shared_memory::segment_manager>;

    using char_alloc    =  alloc<char>;
    using shared_string =  bip::basic_string<char, std::char_traits<char>, char_alloc >;
    using string_alloc  =  alloc<shared_string>;

    using ring_buffer = boost::lockfree::spsc_queue<
        shared_string, 
        boost::lockfree::capacity<200> 
        // alternatively, pass
        // boost::lockfree::allocator<string_alloc>
    >;
}

为简单起见,我选择演示运行时大小的spsc_queue实现,随机请求200个元素的容量.

shared_string typedef定义了一个从共享内存段透明分配的字符串,因此它们也与另一个进程“神奇地”共享.

消费者方面

这是最简单的,所以:

int main()
{
    // create segment and corresponding allocator
    bip::managed_shared_memory segment(bip::open_or_create, "MySharedMemory", 65536);
    shm::string_alloc char_alloc(segment.get_segment_manager());

    shm::ring_buffer *queue = segment.find_or_construct<shm::ring_buffer>("queue")();

这将打开共享内存区域,找到共享队列(如果存在).注意这应该在现实生活中同步.

现在进行实际演示:

while (true)
{
    std::this_thread::sleep_for(std::chrono::milliseconds(10));

    shm::shared_string v(char_alloc);
    if (queue->pop(v))
        std::cout << "Processed: '" << v << "'\n";
}

消费者只是无限地监视队列中的待处理作业,并且每个处理一个~10ms.

制片人方面

生产者方面非常相似:

int main()
{
    bip::managed_shared_memory segment(bip::open_or_create, "MySharedMemory", 65536);
    shm::char_alloc char_alloc(segment.get_segment_manager());

    shm::ring_buffer *queue = segment.find_or_construct<shm::ring_buffer>("queue")();

再次,在初始化阶段添加适当的同步.此外,您可能会让生产者负责在适当的时候释放共享内存段.在这个演示中,我只是“让它挂起”.这很适合测试,见下文.

那么,制作人做了什么?

    for (const char* s : { "hello world", "the answer is 42", "where is your towel" })
    {
        std::this_thread::sleep_for(std::chrono::milliseconds(250));
        queue->push({s, char_alloc});
    }
}

是的,生产者在~750ms内准确生成3条消息,然后退出.

请注意,如果我们这样做(假设一个带有作业控制的POSIX shell):

./producer& ./producer& ./producer&
wait

./consumer&

将“立即”打印3×3消息,同时让消费者继续运行.干

./producer& ./producer& ./producer&

在此之后,将再次显示“涓涓细流”的消息(以3~24毫秒的间隔突发),因为消费者仍然在后台运行

请参阅本主题中的完整代码:https://gist.github.com/sehe/9376856

标签:lock-free,c,ipc,synchronization,shared-memory
来源: https://codeday.me/bug/20190916/1808123.html