您的位置:首页 > 其它

再读内核存储管理(7):icache支持

2008-06-17 14:21 417 查看
快乐虾
http://blog.csdn.net/lights_joy/
lights@hb165.com
本文适用于
ADI bf561 DSP
uclinux-2008r1-rc8 (移植到vdsp5)
Visual DSP++ 5.0


欢迎转载,但请保留作者信息

1.1 icache支持
1.1.1 寄存器配置初始化
在内核中,如果要支持icache,必须首先定义一个宏:
#define CONFIG_BFIN_ICACHE 1
对icache的初始化配置在arch/blackfin/kernel/cplb-nompu/cacheinit.c的bfin_icache_init函数完成:
#if defined(CONFIG_BFIN_ICACHE)
void bfin_icache_init(void)
{
unsigned long *table = icplb_table;
unsigned long ctrl;
int i;

for (i = 0; i < MAX_CPLBS; i++) {
unsigned long addr = *table++;
unsigned long data = *table++;
if (addr == (unsigned long)-1)
break;
bfin_write32(ICPLB_ADDR0 + i * 4, addr);
bfin_write32(ICPLB_DATA0 + i * 4, data);
}
ctrl = bfin_read_IMEM_CONTROL();
ctrl |= IMC | ENICPLB;
bfin_write_IMEM_CONTROL(ctrl);
SSYNC();
}
#endif
在这里,
MAX_CPLBS的定义为:
#define MAX_CPLBS (16 * 2)
之所以定义为16*2是因为它把ICPLB_ADDR和ICPLB_DATA交叉存放在一个数组中,因此需要*2。
icplb_table则是一个全局变量,其定义为:
u_long icplb_table[MAX_CPLBS + 1];
最后一个CPLB元素的值为-1(不一定是数组的最后一个元素),用作上述函数中for循环的退出条件。
那么icplb_table的值从哪来呢?答案在cplbinit.c。
1.1.2 icplb_table的生成
icplb_table的生成是由generate_cpl_tables实现的。以下代码删除了与icplb初始化化无关的部分:
void __init generate_cpl_tables(void)
{

u16 i, j, process;
u32 a_start, a_end, as, ae, as_1m;

struct cplb_tab *t_i = NULL;
struct s_cplb cplb;

cplb.init_i.size = MAX_CPLBS;
cplb.init_i.pos = 0;
cplb.init_i.tab = icplb_table;

for (i = ZERO_P; i < ARRAY_SIZE(cplb_data); ++i) {
if (!cplb_data[i].valid)
continue;

as = cplb_data[i].start % SIZE_4M;
ae = cplb_data[i].end % SIZE_4M;

if (as)
a_start = cplb_data[i].start + (SIZE_4M - (as));
else
a_start = cplb_data[i].start;

a_end = cplb_data[i].end - ae;

for (j = INITIAL_T; j <= SWITCH_T; j++) {

switch (j) {
case INITIAL_T:
if (cplb_data[i].attr & INITIAL_T) {
t_i = &cplb.init_i;
t_d = &cplb.init_d;
process = 1;
} else
process = 0;
break;
default:
process = 0;
break;
}

if (!process)
continue;
if (cplb_data[i].attr & I_CPLB)
__fill_code_cplbtab(t_i, i, a_start, a_end);

}
}

/* close tables */

close_cplbtab(&cplb.init_i);
cplb.init_i.tab[cplb.init_i.pos] = -1;
}
在这里cplb_data是在文件头中定义的一个10个元素的数组,它详细说明了每块内存的属性,如大小,类型等等。
当程序运行到__fill_code_cplbtab时,以下几块将被填入ICPLB的数组中:
{
.start = L1_CODE_START,
.end = L1_CODE_START + L1_CODE_LENGTH,
.psize = SIZE_4M,
.attr = INITIAL_T | SWITCH_T | I_CPLB,
.i_conf = L1_IMEMORY,
.d_conf = 0,
.valid = 1,
.name = "L1 I-Memory",
},
{
.start = 0,
.end = 0, /* dynamic */
.psize = 0,
.attr = INITIAL_T | SWITCH_T | I_CPLB | D_CPLB,
.i_conf = SDRAM_IGENERIC,
.d_conf = SDRAM_DGENERIC,
.valid = 1,
.name = "Kernel Memory",
},
其中,Kernel Memory这个块的.end已经设置为SDRAM的结束位置。
1.1.3 __fill_code_cplbtab
这个函数的实现为:
/* helper function */
static void __fill_code_cplbtab(struct cplb_tab *t, int i, u32 a_start, u32 a_end)
{
if (cplb_data[i].psize) {
fill_cplbtab(t,
cplb_data[i].start,
cplb_data[i].end,
cplb_data[i].psize,
cplb_data[i].i_conf);
#if defined(CONFIG_BFIN_ICACHE)
if (ANOMALY_05000263 && i == SDRAM_KERN) {
fill_cplbtab(t,
cplb_data[i].start,
cplb_data[i].end,
SIZE_4M,
cplb_data[i].i_conf);
} else
#endif
} else {
fill_cplbtab(t,
cplb_data[i].start,
a_start,
SIZE_1M,
cplb_data[i].i_conf);
fill_cplbtab(t,
a_start,
a_end,
SIZE_4M,
cplb_data[i].i_conf);
fill_cplbtab(t, a_end,
cplb_data[i].end,
SIZE_1M,
cplb_data[i].i_conf);
}
}
static unsigned short __init
fill_cplbtab(struct cplb_tab *table,
unsigned long start, unsigned long end,
unsigned long block_size, unsigned long cplb_data)
{
int i;

switch (block_size) {
case SIZE_4M:
i = 3;
break;
case SIZE_1M:
i = 2;
break;
case SIZE_4K:
i = 1;
break;
case SIZE_1K:
default:
i = 0;
break;
}

cplb_data = (cplb_data & ~(3 << 16)) | (i << 16);

while ((start < end) && (table->pos < table->size)) {

table->tab[table->pos++] = start;

if (lock_kernel_check(start, start + block_size) == IN_KERNEL)
table->tab[table->pos++] =
cplb_data | CPLB_LOCK | CPLB_DIRTY;
else
table->tab[table->pos++] = cplb_data;

start += block_size;
}
return 0;
}
1.1.3.1 L1 I-Memory

{
.start = L1_CODE_START,
.end = L1_CODE_START + L1_CODE_LENGTH,
.psize = SIZE_4M,
.attr = INITIAL_T | SWITCH_T | I_CPLB,
.i_conf = L1_IMEMORY,
.d_conf = 0,
.valid = 1,
.name = "L1 I-Memory",
},
这个块传递进来时,它将直接调用
fill_cplbtab(t,
cplb_data[i].start,
cplb_data[i].end,
cplb_data[i].psize,
cplb_data[i].i_conf);
从fill_cplbtab这个函数可以看出此时ICPLB_ADDR的值将为L1_CODE_START,也就是0xffa0 0000,而ICPLB_DATA的值将为0x0003 0007,这个值的意义是:
16位和17位的值为11,即页面大小为4M。
第0位,也即CPLB_VALID,为1,表示Valid CPLB Entry。
第1位,也即CPLB_LOCK,为1,表示CPLB Entry Should not be replaced。
第2位,也即CPLB_USER_RD,为1,表示User mode read access permitted。
1.1.3.2 Kernel Memory

{
.start = 0,
.end = 0, /* dynamic */
.psize = 0,
.attr = INITIAL_T | SWITCH_T | I_CPLB | D_CPLB,
.i_conf = SDRAM_IGENERIC,
.d_conf = SDRAM_DGENERIC,
.valid = 1,
.name = "Kernel Memory",
},
这个块传进来的时候,它将调用
fill_cplbtab(t,
cplb_data[i].start,
cplb_data[i].end,
SIZE_4M,
cplb_data[i].i_conf);
此时将生成15个SDRAM的块,每个都是4M,且从0开始递增。此时它们的CPLB_DATA值将为0x0003 1205,这个值的意义是:
16位和17位的值为11,即页面大小为4M。
第0位,也即CPLB_VALID,为1,表示Valid CPLB Entry。
第1位,也即CPLB_LOCK,为0,表示CPLB Entry can be replaced。
第2位,也即CPLB_USER_RD,为1,表示User mode read access permitted。
第9位,也即CPLB_MEM_LEV,为1,表示Determins Line Buffer, Low Priority。
第12位,也即CPLB_L1_CHBL,为1,表示Cacherable in l1。
1.1.4 换页问题
很明显,在初始化的时候,当SDRAM>32M时,icache是无法覆盖整个存储空间的,此时,uclinux内核必然会发生I-fetch CPLB miss异常。uclinux内核对这种异常情况的处理由_cplb_mgr完成,这个函数在arch/blackfin/kernel/cplb-nompu/cplbmgr.S中,它将在整个存储区域的配置列表中寻找一个合适的块,替换掉ICACHE_DATA15和ICACHE_ADDR15,即它总是替换最新的一个页。
在这里,整个存储区域配置的列表保存在一个叫ipdt_table的数组中,看看他的定义:
u_long ipdt_table[MAX_SWITCH_I_CPLBS + 1] PDT_ATTR;
/*
* Number of required instruction CPLB switchtable entries
* MEMSIZE / 4 (we mostly install 4M page size CPLBs
* approx 12 for smaller 1MB page size CPLBs for allignment purposes
* 1 for L1 Instruction Memory
* possibly 1 for L2 Instruction Memory
* 1 for CONFIG_DEBUG_HUNT_FOR_ZERO
*/

#define MAX_SWITCH_I_CPLBS (((CONFIG_MEM_SIZE / 4) + 12 + 1 + 1 + 1) * 2)
这个数组同样是交叉保存了ICPLB_ADDR和ICPLB_DATA的值,它的初始化同样由generate_cpl_tables函数完成,与icplb_table的初始化类似。


内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: