您的位置:首页 > 运维架构 > Linux

嵌入式Linux驱动案例之中的一个

2017-05-08 17:35 141 查看
前几天解决一个嵌入式Linux驱动问题,做为一个案例进行记录。

本案例是一个CPU通过LocalBus总线訪问外围一个设备,详细设备是一个DSP器件。在实际应用中,性能要求非常高,对数据訪问速度提出比較高的要求。

既然是通过LocalBus总线来訪问。实际上也就是在CPU的IO寻址空间。原来的做法是通过ioremap的方式将这个空间进行重映射。然后CPU对其进行读写訪问。读取DSP的一个数据须要经过写地址,读数据两个步骤。

现象描写叙述:

发现不管怎样。在写完地址之后一定要等待一段时间,或者一定要先读取一下DSP的Ready寄存器。这个操作在大数据处理时消耗相当可观。而实际应用上对性能要求非常高,这个等待或者读取Ready寄存器的动作必须清除。

原因分析:

本系统中採用的CPU是Powerpc。对LocalBus进行读写操作,那么读和写操作两个之间进行切换是有一个过程的,先写后读,转换太快可能写会不成功。问题的根本是驱动中採用的是ioremap之后的操作方式。

解决方法:

改变ioremap的方式,使用Linux 内核中对IO的操作接口out和in的方式。

调用函数为in_be16和out_le16。定义例如以下:

inline void out_8(volatile unsigned char *addr, int val)

{

__asm__ __volatile__("stb%U0%X0 %1,%0; sync"

: "=m" (*addr) : "r" (val));

}

inline unsigned in_le16(const volatile u16 *addr)

{

unsigned ret;

__asm__ __volatile__("lhbrx %0,0,%1; twi 0,%0,0; isync"

: "=r" (ret) : "r" (addr), "m" (*addr));

return ret;

}

能够看出是用汇编实现的,当中有一个指令sync,表示同步操作。应该是类似于cache操作的原理,加上同步操作之后数据能够完毕读和写的所有操作过程。

经过改动。问题得到解决。不须要等待也不须要在写和读的切换过程中添加其他操作。最后,整个系统比原来使用ioremap的方式在实时性上有非常大的提高,并且CPU占用率大大减少。

总结:

在Linux驱动开发中。对于IO的操作应该使用内核提供的IO接口函数。最好是參照内核其他驱动的样例,平时多阅读内核代码是最好的学习方法。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: