解析的Wave 驱动的架构。我们了解一个驱动的时候,先不去看具体跟硬件操作相关的东西,而是从流程入手,把整个流程搞清楚了,调试起来就非常的容易了。我们着重看hwctxt.cpp,hwctxt.H,devctxt.cpp,devctxt.H,strmctxt.cpp,strmctxt.H这几个源文件。其中hwctxt是类HardwareContext代码文件,devctxt是DeviceContext代码文件,strmctxt是StreamContext代码文件。这几个类的其他一些功能,还在其他一些文件中实现,如output.Cpp,midistrm.Cpp等。
现在我们来看下StreamContext的类图,StreamContext是管理音频流的对象,包括播放、暂停、停止、设置音量、获取播放位置等。从下面的StreamContext的类图中,我们可以看到它派生了WaveStreamContext和MidiStream。然后WaveStreamContext又派生了Input和Output类型的Stream。不用说也可以知道InputStreamContext是针对于像麦克这种输入设备流的。
StreamContext类图
其中OutputStreamContext派生了六个类,M代表单音道,S代表的是立体音,8/16是8/16比特采样了。 SPDIF(SONY/PHILIPS DIGITAL INTERFACE)是一种最新的音频传输格式,它通过光纤进行数字音频信号传输以取代传统的模拟信号传输方式,因此可以取得更高质量的音质效果。
StreamContext是一个管理音频数据流的对象,像智能手机中可能存在用media player播放音乐,同时又开着FM,突然又来电。从上篇文章中我们知道,要想调用wave驱动的播放功能,每个应用都有一份StreamContext对象,上面提到的状况,就会有三个StreamContext对象被创建。 在硬件只要一个的条件下,那么这三个StreamContext是如果协同工作的呢?而DeviceContext正是管理StreamContext对象的。
如下是DeviceContext类图:
DeviceContext类图
DeviceContext派生出InputDeviceContext和OutputDeviceContext,他们分别管理InputStreamContext和OutputStreamContext。在DeviceContext内部维护了一个双向链表来管理StreamContext。
HardwareContext是具体操作硬件相关的类,其内部包含InputDeviceContext和OutputDeviceContext对象,下面这种图,就是三个类的关系图,一看就知道他们的对应关系了。
DeivceContext和StreamContext关系图
对于HardwareContext是具体操作硬件的东西,不具有代码性,只要仔细看看代码就行了。现在我们主要分析下DeviceContext和StreamContext的关系。
DeviceContext的作用是管理StreamContext,可以分为几套函数,见Devctxt.h, Devctxt.cpp
音量增益管理:下面这个函数主要是设置设备的整个音量增益,设置了设备音量增益后,对流音量的增益起了限制做用的。
音量函数如下
[cpp] view plain copy print ?
- DWORD GetGain();
- DWORD SetGain(DWORD dwGain);
- DWORD GetDefaultStreamGain();
- DWORD SetDefaultStreamGain(DWORD dwGain);
- DWORD GetSecondaryGainLimit(DWORD GainClass);
- DWORD SetSecondaryGainLimit(DWORD GainClass, DWORD Limit);
DWORD GetGain(); DWORD SetGain(DWORD dwGain); DWORD GetDefaultStreamGain(); DWORD SetDefaultStreamGain(DWORD dwGain); DWORD GetSecondaryGainLimit(DWORD GainClass); DWORD SetSecondaryGainLimit(DWORD GainClass, DWORD Limit);
先来讲下设备音量增益(Device Gain)和流音量增益(Stream Gain)的关系。我们从微软Media Player中,很容易就看到了设备音量和流音量的关系。设备音量时通过音量键来控制系统的音量,从而改变整个输出设备的音量的,但是在Media Player中,还是有一个单独的音量控制按钮,它能调节Media Player的音量(不要问我在哪里,自己找),但是调试它是受限制于系统音量,是如何限制,请看下面讲解。
我们现在看下设置系统音量和设置流音量的整个流程,来了解整个音量控制的过程。用户设置时,会调用waveOutSetVolume
MMRESULT waveOutSetVolume(
HWAVEOUT hwo,
DWORD dwVolume
);
当HWAVEOUT传入为空时,设置的就是设备音量,当HWAVEOUT是通过调用waveOutOpen返回的句柄是,设置的就是流音量。
好,我们进入到驱动中区看看,waveOutSetVolume会调用到来看wavemain.Cpp中HandleWaveMessage的WODM_SETVOLUME分支,我在代码中去掉了不重要的部分,可以看得更清晰些。
[cpp] view plain copy print ?
- case WODM_SETVOLUME:
- {
- StreamContext *pStreamContext;
- pStreamContext = (StreamContext *) dwUser;
-
- LONG dwGain = dwParam1;
- if (pStreamContext)
- {
- dwRet = pStreamContext->SetGain(dwGain);
- }
- else
- {
- DeviceContext *pDeviceContext = g_pHWContext->GetOutputDeviceContext(uDeviceId);
- dwRet = pDeviceContext->SetGain(dwGain);
- }
- }
case WODM_SETVOLUME: { StreamContext *pStreamContext; pStreamContext = (StreamContext *) dwUser; LONG dwGain = dwParam1; if (pStreamContext) { dwRet = pStreamContext->SetGain(dwGain); } else { DeviceContext *pDeviceContext = g_pHWContext->GetOutputDeviceContext(uDeviceId); dwRet = pDeviceContext->SetGain(dwGain); } }
dwUser 指向的是StreamContext对象(在前文中已经讲过),如果pStreamContext为空,那么就调用DeviceContext的SetGain函数,否则调用StreamContext的SetGain函数。调用StreamContext的Gain只对当前的StreamContext的音量起作用,不影响其他的Stream音量。但是对DeviceContext设置音量增益是对DeviceContext管理的所有StreamContext起了控制作用,但是具体是如何影响的,还是根据代码来分析:
在Devctxt.h中的SetGain函数代码如下
[cpp] view plain copy print ?
- DWORD SetGain(DWORD dwGain)
- {
- m_dwGain = dwGain;
- RecalcAllGains();
- return MMSYSERR_NOERROR;
- }
DWORD SetGain(DWORD dwGain) { m_dwGain = dwGain; RecalcAllGains(); return MMSYSERR_NOERROR; }
用m_dwGain保存设备音量,然后调用RecalcAllGains来重新计算所有StreamContext的音量增益。
在Devctxt.cpp中的RecalcAllGains的实现如下
[cpp] view plain copy print ?
- void DeviceContext::RecalcAllGains()
- {
- PLIST_ENTRY pListEntry;
- StreamContext *pStreamContext;
-
- for (pListEntry = m_StreamList.Flink;
- pListEntry != &m_StreamList;
- pListEntry = pListEntry->Flink)
- {
- pStreamContext = CONTAINING_RECORD(pListEntry,StreamContext,m_Link);
- pStreamContext->GainChange();
- }
- return;
- }
void DeviceContext::RecalcAllGains() { PLIST_ENTRY pListEntry; StreamContext *pStreamContext; for (pListEntry = m_StreamList.Flink; pListEntry != &m_StreamList; pListEntry = pListEntry->Flink) { pStreamContext = CONTAINING_RECORD(pListEntry,StreamContext,m_Link); pStreamContext->GainChange(); } return; }
它便利所有的StreamContext,并调用pStreamContext->GainChange()来改变StreamContext对象的音量。接着看StreamContext类中的GainChange的实现
[cpp] view plain copy print ?
- void GainChange()
- {
- m_fxpGain = MapGain(m_dwGain);
- }
- DWORD StreamContext::MapGain(DWORD Gain)
- {
- DWORD TotalGain = Gain & 0xFFFF;
- DWORD SecondaryGain = m_pDeviceContext->GetSecondaryGainLimit(m_SecondaryGainClass) & 0xFFFF;
- if (m_SecondaryGainClass < SECONDARYDEVICEGAINCLASSMAX)
- {
-
- DWORD DeviceGain = m_pDeviceContext->GetGain() & 0xFFFF;
- TotalGain *= DeviceGain;
- TotalGain += 0xFFFF;
- TotalGain >>= 16;
- }
-
-
- TotalGain *= SecondaryGain;
- TotalGain += 0xFFFF;
- TotalGain >>= 16;
-
-
- if (TotalGain==0)
- {
- return 0;
- }
-
-
- DWORD Index = 63 - (TotalGain>>10);
- return GainMap[Index];
- }
void GainChange() { m_fxpGain = MapGain(m_dwGain); } DWORD StreamContext::MapGain(DWORD Gain) { DWORD TotalGain = Gain & 0xFFFF; DWORD SecondaryGain = m_pDeviceContext->GetSecondaryGainLimit(m_SecondaryGainClass) & 0xFFFF; if (m_SecondaryGainClass < SECONDARYDEVICEGAINCLASSMAX) { // Apply device gain DWORD DeviceGain = m_pDeviceContext->GetGain() & 0xFFFF; TotalGain *= DeviceGain; TotalGain += 0xFFFF; // Round up TotalGain >>= 16; // Shift to lowest 16 bits } // Apply secondary gain TotalGain *= SecondaryGain; TotalGain += 0xFFFF; // Round up TotalGain >>= 16; // Shift to lowest 16 bits // Special case 0 as totally muted if (TotalGain==0) { return 0; } // Convert to index into table DWORD Index = 63 - (TotalGain>>10); return GainMap[Index]; }
音量在系统中用一个DWORD值来表示,其高低两个字节分别来表示左右声道,一般情况下左声道和右声道的音量大小是一样的,所以只取其低两个字节,DWORD TotalGain = Gain & 0xFFFF;
TotalGain是DeviceGain和m_dwGain的乘机,然后再左移16位得到的。其实就是TotalGain=DeviceGain*m_dwGain/最高音量,如果把DeviceGain/最高音量,用百分比来算的话,就很更容易理解了,那么最后的公式就变成TotalGain=DeviceGain*系统音量百分比。那么这里就解释了系统音量是如何限制流音量的疑问。
我们设置好音量增益后,最终会再哪里体现呢:首先看一下Output.cpp文件,WaveStreamContext::Render之后的数据就是直接发送到外部声音芯片的数据,他根据参数以及标志位选择OutputStreamContextXXX::Render2,XXX表示双声道S单声道M,bit位是8位还是16位。以双声道OutputStreamContextS16::Render2为例,BSP里面的代码如下:
[cpp] view plain copy print ?
- PBYTE OutputStreamContextS16::Render2(PBYTE pBuffer, PBYTE pBufferEnd, PBYTE pBufferLast)
- {
- LONG CurrT = m_CurrT;
- LONG DeltaT = m_DeltaT;
- LONG CurrSamp0 = m_CurrSamp[0];
- LONG PrevSamp0 = m_PrevSamp[0];
- PBYTE pCurrData = m_lpCurrData;
- PBYTE pCurrDataEnd = m_lpCurrDataEnd;
- LONG fxpGain = m_fxpGain;
- LONG OutSamp0;
-
- __try
- {
- while (pBuffer < pBufferEnd)
- {
- while (CurrT >= 0x100)
- {
- if (pCurrData>=pCurrDataEnd)
- {
- goto Exit;
- }
- CurrT -= 0x100;
- PrevSamp0 = CurrSamp0;
- PPCM_SAMPLE pSampleSrc = (PPCM_SAMPLE)pCurrData;
- CurrSamp0 = (LONG)pSampleSrc->s16.sample_left;
- CurrSamp0 += (LONG)pSampleSrc->s16.sample_right;
- CurrSamp0 = CurrSamp0>>1;
- pCurrData+=4;
- }
- OutSamp0 = PrevSamp0 + (((CurrSamp0 - PrevSamp0) * CurrT) >> 8);
-
- OutSamp0 = (OutSamp0 * fxpGain) >> VOLSHIFT;
- CurrT += DeltaT;
-
- if (pBuffer < pBufferLast)
- {
- OutSamp0 += *(HWSAMPLE *)pBuffer;
- }
- *(HWSAMPLE *)pBuffer = (HWSAMPLE)OutSamp0;
- pBuffer += sizeof(HWSAMPLE);
-
- }
- }
- __except (EXCEPTION_EXECUTE_HANDLER)
- {
- RETAILMSG(1, (TEXT("InputStreamContext::Render2!/r/n")));
- m_lpCurrData = m_lpCurrDataEnd = NULL;
- return NULL;
- }
- Exit:
- m_dwByteCount += (pCurrData - m_lpCurrData);
- m_lpCurrData = pCurrData;
- m_CurrT = CurrT;
- m_PrevSamp[0] = PrevSamp0;
- m_CurrSamp[0] = CurrSamp0;
- return pBuffer;
- }
PBYTE OutputStreamContextS16::Render2(PBYTE pBuffer, PBYTE pBufferEnd, PBYTE pBufferLast) { LONG CurrT = m_CurrT; LONG DeltaT = m_DeltaT; LONG CurrSamp0 = m_CurrSamp[0]; LONG PrevSamp0 = m_PrevSamp[0]; PBYTE pCurrData = m_lpCurrData; PBYTE pCurrDataEnd = m_lpCurrDataEnd; LONG fxpGain = m_fxpGain; LONG OutSamp0; __try { while (pBuffer < pBufferEnd) { while (CurrT >= 0x100) { if (pCurrData>=pCurrDataEnd) { goto Exit; } CurrT -= 0x100; PrevSamp0 = CurrSamp0; PPCM_SAMPLE pSampleSrc = (PPCM_SAMPLE)pCurrData; CurrSamp0 = (LONG)pSampleSrc->s16.sample_left; CurrSamp0 += (LONG)pSampleSrc->s16.sample_right; CurrSamp0 = CurrSamp0>>1; pCurrData+=4; } OutSamp0 = PrevSamp0 + (((CurrSamp0 - PrevSamp0) * CurrT) >> 8); // 设置增益 OutSamp0 = (OutSamp0 * fxpGain) >> VOLSHIFT; CurrT += DeltaT; if (pBuffer < pBufferLast) { OutSamp0 += *(HWSAMPLE *)pBuffer; } *(HWSAMPLE *)pBuffer = (HWSAMPLE)OutSamp0; pBuffer += sizeof(HWSAMPLE); } }//end the __try block __except (EXCEPTION_EXECUTE_HANDLER) { RETAILMSG(1, (TEXT("InputStreamContext::Render2!/r/n"))); m_lpCurrData = m_lpCurrDataEnd = NULL; return NULL; } Exit: m_dwByteCount += (pCurrData - m_lpCurrData); m_lpCurrData = pCurrData; m_CurrT = CurrT; m_PrevSamp[0] = PrevSamp0; m_CurrSamp[0] = CurrSamp0; return pBuffer; }
从上面看到是与采样数据相乘,然后在左移16位。跟上面提到的系统音量影响流音量是一样的。
上面讲了,DeviceContext的音量增益管理,现在来看下它的流管理。
StreamContext流管理:主要来管理StreamContext的创建、删除、渲染、传输等功能。
主要有如下几个函数
[cpp] view plain copy print ?
- StreamContext *CreateStream(LPWAVEOPENDESC lpWOD);
- DWORD OpenStream(LPWAVEOPENDESC lpWOD, DWORD dwFlags, StreamContext **ppStreamContext);
- HRESULT Open(DeviceContext *pDeviceContext, LPWAVEOPENDESC lpWOD, DWORD dwFlags);
- void NewStream(StreamContext *pStreamContext);
- void DeleteStream(StreamContext *pStreamContext);
- void StreamReadyToRender(StreamContext *pStreamContext);
- PBYTE TransferBuffer(PBYTE pBuffer, PBYTE pBufferEnd, DWORD *pNumStreams, BOOL bMuteFlag);
StreamContext *CreateStream(LPWAVEOPENDESC lpWOD); DWORD OpenStream(LPWAVEOPENDESC lpWOD, DWORD dwFlags, StreamContext **ppStreamContext); HRESULT Open(DeviceContext *pDeviceContext, LPWAVEOPENDESC lpWOD, DWORD dwFlags); void NewStream(StreamContext *pStreamContext); void DeleteStream(StreamContext *pStreamContext); void StreamReadyToRender(StreamContext *pStreamContext); PBYTE TransferBuffer(PBYTE pBuffer, PBYTE pBufferEnd, DWORD *pNumStreams, BOOL bMuteFlag);
在DeviceContext中有个m_StreamList的双向链表(LIST_ENTRY), m_StreamList用来指向链表的头。在StreamConext中也存在一个m_Link(LIST_ENTRY)。StreamContext是调用DeviceContext的OpenStream来创建的,然后把StreamContext对象加入到DeviceContext的m_StreamList中。我们从代码中去直接分析:
上层调用waveoutOpen,在wavedev2中会调用WODM_OPEN这个分支。在WODM_OPEN中的代码如下:
[cpp] view plain copy print ?
- case WODM_OPEN:
- {
- StreamContext *pStreamContext;
- pStreamContext = (StreamContext *) dwUser;
- dwRet = pDeviceContext->OpenStream((LPWAVEOPENDESC)dwParam1, dwParam2, (StreamContext **)pStreamContext);
- break;
- }
case WODM_OPEN: { StreamContext *pStreamContext; pStreamContext = (StreamContext *) dwUser; dwRet = pDeviceContext->OpenStream((LPWAVEOPENDESC)dwParam1, dwParam2, (StreamContext **)pStreamContext); break; }
OpenStream的其流程图如下
StreamContext 初始化流程
CreateStream是根据WAVEFORMATEX这个结构体,来判断具体要创建StreamContext的哪个派生类,下面是CreateStream的流程图,不可不提,还是流程图清晰。
OutputDeviceContext:: CreateStream流程图
上面讲了上层通过WODM_OPEN创建一个StreamContext的过程,那么音频流被打开之后,接下来就是给StreamContext传入音频数据开始播放音乐。Wavedev2提供了WODM_WRITE来向音频设置写入数据。我们先看下WODM_WRITE分支的代码
[cpp] view plain copy print ?
- case WODM_WRITE:
- {
- StreamContext *pStreamContext;
- pStreamContext = (StreamContext *) dwUser;
- dwRet = pStreamContext->QueueBuffer((LPWAVEHDR)dwParam1);
- break;
- }
case WODM_WRITE: { StreamContext *pStreamContext; pStreamContext = (StreamContext *) dwUser; dwRet = pStreamContext->QueueBuffer((LPWAVEHDR)dwParam1); break; }
这里调用了StreamContext中的QueueBuffer,QueueBuffer的作用就是把WAVEHDR中的数据加入到StreamContext的队列中,等待播放。下面是QueueBuffer的流程图
QueueBuffer流程图
在QueueBuffer中调用DeviceContext中的StreamReadyToReander通知可以开始渲染了,流程图中的箭头方向是StreamReadyToReander调用流程,最终调用SetEvent(hOutputIntEvent),来通知线程数据已经准备好,得到通知后,就开始播放了。该线程在HardwareContext中的OutputInterruptThread函数中
OutputInterruptThread流程如下
WinCE平台上的DMA
CEDDK提供了DMA的相关函数,在CEDDK/DDK_DMA/ddk_dma.c中定义。最有用的就两个函数,HalAllocateCommonBuffer(..)和HalFreeCommonBuffer(..)分别用于为DMA申请和释放内存。
(1)首先介绍一下会用到的DMA适配器结构,在ceddk.h中定义,如下:
typedef struct _DMA_ADAPTER_OBJECT_
{
USHORT ObjectSize; //该结构的大小
INTERFACE_TYPE InterfaceType; //接口类型,一般用做DMA时设置为Internal
ULONG BusNumber; //一般设置为0
} DMA_ADAPTER_OBJECT, *PDMA_ADAPTER_OBJECT;
(2)DMA内存分配函数:
PVOID HalAllocateCommonBuffer(PDMA_ADAPTER_OBJECT DmaAdapter, ULONG Length, PPHYSICAL_ADDRESS LogicalAddress, BOOLEAN CacheEnabled)
DmaAdapter: DMA适配器结构指针
Length: 要分配的内存的大小
LogicalAddress: 分配成功后,内存的物理起始地址
CacheEnabled: 是否使用Cache
实际上该函数通过调用AllocPhysMem函数来分配一段物理地址连续的内存,这段内存默认是64KB字节对齐的,DMA操作的物理内存必须是连续的。该函数调用成功以后,返回值是虚拟地址,可以在驱动中访问其中的内容,函数的第三个参数返回内存的物理地址,可以赋值给DMA控制器来完成DMA操作。
(3)DMA内存释放函数:
VOID HalFreeCommonBuffer(PDMA_ADAPTER_OBJECT DmaAdapter, ULONG Length, PHYSICAL_ADDRESS LogicalAddress, PVOID VirtualAddress, BOOLEAN CacheEnabled)
DmaAdapter: DMA适配器结构指针
Length: 内存的大小
LogicalAddress: 内存的物理起始地址
VirtualAddress: 内存的虚拟地址
CacheEnabled: 是否使用Cache
该函数通过调用FreePhysMem函数来完成内存的释放,所以在使用该函数的时候,只有函数的第四个参数是必须的,也就是内存的虚拟地址,其他的都可以忽略。
(4)下面给个使用上面两个函数的例子:
DMA_ADAPTER_OBJECT dmaAdapter;
//初始化DMA适配器
dmaAdapter.ObjectSize = sizeof(dmaAdapter);
dmaAdapter.InterfaceType = Internal;
dmaAdapter.BusNumber = 0;
//分配DMA内存
m_pDMABuf = (PBYTE)HalAllocateCommonBuffer( &dmaAdapter, 256 * 1024, &m_pDMABufPhys, FALSE );
//将物理地址赋值给DMA控制器
vm_pDMAreg->DST = (int)m_pDMABufPhys.LowPart;
...
//释放DMA内存
if( m_pDMABuf != NULL )
{
HalFreeCommonBuffer( NULL, 0, 0, m_pDMABuffer, FALSE);
m_pDMABuf = NULL;
}
在ddk_dma.c中,还可以看到其他很多DMA相关的操作函数。这些DMA函数是用来操作DMA设备的,通过CreateFile来打开DMA设备,然后调用DeviceIoControl函数来访问DMA设备。DMA设备驱动在/WINCE600/PUBLIC/Common/Oak/Drivers/DMA下面,该DMA驱动以流设备驱动的形式实现。
一般来说,DMA驱动会配合其他设备驱动来完成数据传输,所以很少会被单独作为一个设备来使用,大多数情况我们开发设备驱动时需要用到DMA的时候,会用到上面两个函数来申请和释放内存。
(5)音频驱动中的DMA
以S3C2440A为例,它的DMA控制器没有内置的DMA存储区域,所以驱动程序必须在内存内为音频设备分配DMA缓冲区。缓冲区设置是否合理非常关键,缓冲区太小容易造成缓冲区溢出,而要填充大的缓冲区,CPU就要一次处理大量的数据,容易造成延迟。
所以在本驱动中采用双缓冲区来解决这个问题,也就是当CPU在处理某一个缓冲区音频数据的同时,DMA控制器可以完成另一个缓冲区音频数据的传输,如此交替下去,则可以提高系统的并行能力,提高音频处理的实时性。本驱动所采用的DMA1通道和DMA2通道分别设置了两个缓冲区。采用DMA控制器通道1控制录制的音频数据的传输,采用通道2控制播放的音频数据的传输。
以放音为例,示意图如下:
新的音频数据在CPU的控制下先写到DMA缓冲区A中,此时DMA控制器正在从DMA缓冲区B中迁移音频数据到IIS总线。当缓冲区B的数据全部传输完成之后,DMA控制器产生INT_DMA2中断,该中断通知CPU开始往缓冲区B中写新的音频数据,与此同时DMA控制器从缓冲区A中迁移数据到IIS总线。这样交替循环,由于CPU和DMA控制器没有同时处理同一块缓冲区,就减少了资源访问的冲突,并且能够最大程度上提高音频处理的实时性。
放音的协作过程:
A,DMA请求,开始播放音乐时,DMA控制器收到IIS的发送请求后,向CPU提出接管总线要求,以便进行下面的DMA数据传输。
B,DMA音频数据传输,DMA控制器得到总线的控制权后,通知IIS控制器DMA应答,这时开始进入DMA数据传输,DMA控制器从输出缓冲区A中取出CPU填充的音频数据到IIS控制器的发送FIFO,当前的DMA传输结束,也即2048个字节的音频数据已通过IIS总线发送到音频编解码器。
C,DMA中断,DMA传输结束后DMA控制器向CPU发出INT_DMA2中断,表示输出缓冲区A的数据已经被迁移到音频编解码器,这时CPU(这之前CPU往输出缓冲区B写入音频数据)转而向输出缓冲区A写入音频数据,而DMA控制器同时从输出缓冲区B中迁移数据到发送的FIFO。CPU和DMA控制器如此交替访问缓冲区,实现音频数据的快速传输。
录音时DMA的操作类似。
Devctxt.cpp
器件关联——包含了音频流的创造,删除,打开,关闭,格式等功能
Hwctxt.cpp
硬件关联——包含了基本的硬件功能在各个状态的全局配置
I2citf.cpp
I2C传输配置
I2S.cpp
I2S传输配置
Input.cpp
负责输入音频流
Output.cpp
负责输出音频流
Midinote.cpp
负责输出MIDI
Midistrm.cpp
负责MIDI的开关以及控制
Mixerdrv.cpp
系统软件混音
RTcodecComm.cpp
Wm8753的所有功能配置,以及初始化设置
Strmctxt.cpp
负责所有音频流的增益,buffer请求等功能以及对Devctxt的控制
Wavemain.cpp
包含了所有的流接口函数