系统相关
首页 > 系统相关> > Linux:如何将一系列物理上连续的区域映射到用户空间?

Linux:如何将一系列物理上连续的区域映射到用户空间?

作者:互联网

在我的驱动程序中,我有一定数量的物理上连续的DMA缓冲区(例如每个4MB长)以从设备接收数据.它们由使用SG列表的硬件处理.由于收到的数据将进行密集处理,我不想关闭缓存,我将在每个缓冲区被DMA填充后使用dma_sync_single_for_cpu.

为了简化数据处理,我希望这些缓冲区在用户空间中显示为一个巨大的,连续的循环缓冲区.
在单个缓冲区的情况下,我只使用remap_pfn_rangedma_mmap_coherent.但是,我不能多次使用这些函数来映射连续的缓冲区.

当然,我可以在vm_operations中实现故障操作,以便在右侧缓冲区中找到相应页面的pfn,并使用vm_insert_pfn将其插入到vma中.

收购将非常快,所以当真实数据到达时我无法处理映射.但这很容易解决.要在数据采集开始之前准备好所有映射,我可以在开始采集之前简单地读取应用程序中的整个mmapped缓冲区,以便在第一个数据到达时已插入所有页面.

基于故障的技巧应该有效,但也许有更优雅的东西?只是一个函数,可以多次调用以逐步构建整个映射?

另外的困难是该解决方案应该适用于(从最小的调整)到从2.6.32到最新的内核的内核.

PS.我已经看到了annoying post.如果应用程序试图向mmapped缓冲区写入内容(只是对数据进行处理),是否有危险,我的精心构建的映射将被COW破坏?

解决方法:

下面是我的解决方案,适用于使用dmam_alloc_noncoherent分配的缓冲区.

缓冲区的分配:

[...]
for(i=0;i<DMA_NOFBUFS;i++) {
    ext->buf_addr[i] = dmam_alloc_noncoherent(&my_dev->dev, DMA_BUFLEN, &my_dev->buf_dma_t[i],GFP_USER);
    if(my_dev->buf_addr[i] == NULL) {
        res = -ENOMEM;
        goto err1;
    }
    //Make buffer ready for filling by the device
    dma_sync_single_range_for_device(&my_dev->dev, my_dev->buf_dma_t[i],0,DMA_BUFLEN,DMA_FROM_DEVICE);
}
[...]

缓冲区的映射

void swz_mmap_open(struct vm_area_struct *vma)
{
}

void swz_mmap_close(struct vm_area_struct *vma)
{
}

static int swz_mmap_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
{
    long offset;
    char * buffer = NULL;
    int buf_num = 0;
    //Calculate the offset (according to info in https://lxr.missinglinkelectronics.com/linux+v2.6.32/drivers/gpu/drm/i915/i915_gem.c#L1195 it is better not ot use the vmf->pgoff )
    offset = (unsigned long)(vmf->virtual_address - vma->vm_start);
    buf_num = offset/DMA_BUFLEN;
    if(buf_num > DMA_NOFBUFS) {
        printk(KERN_ERR "Access outside the buffer\n");
        return -EFAULT;
    }
    offset = offset - buf_num * DMA_BUFLEN;
    buffer = my_dev->buf_addr[buf_num];
    vm_insert_pfn(vma,(unsigned long)(vmf->virtual_address),virt_to_phys(&buffer[offset]) >> PAGE_SHIFT);         
    return VM_FAULT_NOPAGE;
}

struct vm_operations_struct swz_mmap_vm_ops =
{
    .open =     swz_mmap_open,
    .close =    swz_mmap_close,
    .fault =    swz_mmap_fault,    
};

static int char_sgdma_wz_mmap(struct file *file, struct vm_area_struct *vma)
{
    vma->vm_ops = &swz_mmap_vm_ops;
    vma->vm_flags |= VM_IO | VM_RESERVED | VM_CAN_NONLINEAR | VM_PFNMAP;
    swz_mmap_open(vma);
    return 0;
}

标签:linux,linux-device-driver,dma,memory-mapping
来源: https://codeday.me/bug/20190710/1428512.html