参考链接:https://juejin.cn/post/6870352539481538567
该部分代码主要位于 vendor/qcom/proprietary/ 目录下:
其中 camx 代表了通用功能性接口的代码实现集合(CamX),chi-cdk代表了可定制化需求的代码实现集合(CHI),从图中可以看出Camx部分对上作为HAL3接口的实现,对下通过v4l2框架与Kernel保持通讯,中间通过互相dlopen so库并获取对方操作接口的方式保持着与CHI的交互。
作为CamX-CHI中最大的抽象概念,其中包含了多条实现特定功能的Pipeline,具体实现是在CHI中通过Usecase类完成的,该类主要负责了其中的业务处理以及资源的管理。
Usecase类,提供了一系列通用接口,作为现有的所有Usecase的基类,其中,AdvancedCameraUsecase
又继承于CameraUsecaseBase
,相机中绝大部分场景会通过实例化AdvancedCameraUsecase
来完成,它包括了几个主要接口:
chi-cdk\core\chiusecase\chxadvancedcamerausecase.cpp
Create()
: 该方法是静态方法,用于创建一个AdvancedCameraUsecase实例,在其构造方法中会去获取XML中的相应的Usecase配置信息。AdvancedCameraUsecase* AdvancedCameraUsecase::Create(
LogicalCameraInfo* pCameraInfo, ///< Camera info
camera3_stream_configuration_t* pStreamConfig, ///< Stream configuration
UsecaseId usecaseId) ///< Identifier for usecase function
{
CDKResult result = CDKResultSuccess;
AdvancedCameraUsecase* pAdvancedCameraUsecase = CHX_NEW AdvancedCameraUsecase;
if ((NULL != pAdvancedCameraUsecase) && (NULL != pStreamConfig))
{
// 获取Usecase的配置信息
result = pAdvancedCameraUsecase->Initialize(pCameraInfo, pStreamConfig, usecaseId);
if (CDKResultSuccess != result)
{
pAdvancedCameraUsecase->Destroy(FALSE);
pAdvancedCameraUsecase = NULL;
}
}
else
{
result = CDKResultEFailed;
}
return pAdvancedCameraUsecase;
}
ExecuteCaptureRequest(
): 该方法用于下发一次Request请求。CDKResult AdvancedCameraUsecase::ExecuteCaptureRequest(
camera3_capture_request_t* pRequest)
{
CDKResult result = CDKResultSuccess;
UINT frameIndex = pRequest->frame_number % MaxOutstandingRequests;
Feature* pFeature = m_pActiveFeature;
// swapping JPEG thumbnail size params
const ExtensionModule* pExtModule = ExtensionModule::GetInstance();
BOOL isGpuOverrideSetting = pExtModule->UseGPUDownscaleUsecase() || pExtModule->UseGPURotationUsecase();
if( (TRUE == m_GpuNodePresence) && (TRUE == isGpuOverrideSetting))
{
if (NULL != pRequest->settings)
{
// ANDROID_JPEG_ORIENTATION
INT32 JpegOrientation = 0;
CDKResult result = m_vendorTagOps.pGetMetaData(
const_cast<VOID*>
(reinterpret_cast<const VOID*>(pRequest->settings)),
ANDROID_JPEG_ORIENTATION,
&JpegOrientation,
sizeof(INT32));
if (CDKResultSuccess == result)
{
INT32* pIntentJpegSize = NULL;
if (JpegOrientation % 180)
{
JPEGThumbnailSize thumbnailSizeGet, thumbnailSizeSet;
CDKResult result = m_vendorTagOps.pGetMetaData(
const_cast<VOID*>
(reinterpret_cast<const VOID*>(pRequest->settings)),
ANDROID_JPEG_THUMBNAIL_SIZE,
&thumbnailSizeGet,
sizeof(JPEGThumbnailSize));
if (CDKResultSuccess == result)
{
thumbnailSizeSet.JpegThumbnailSize_0 = thumbnailSizeGet.JpegThumbnailSize_1;
thumbnailSizeSet.JpegThumbnailSize_1 = thumbnailSizeGet.JpegThumbnailSize_0;
CDKResult result = m_vendorTagOps.pSetMetaData(
const_cast<VOID*>
(reinterpret_cast<const VOID*>(pRequest->settings)),
ANDROID_JPEG_THUMBNAIL_SIZE,
&thumbnailSizeSet,
sizeof(JPEGThumbnailSize));
if (CDKResultSuccess == result)
{
CDKResult result = m_vendorTagOps.pGetMetaData(
const_cast<VOID*>
(reinterpret_cast<const VOID*>(pRequest->settings)),
ANDROID_JPEG_THUMBNAIL_SIZE,
&thumbnailSizeGet,
sizeof(JPEGThumbnailSize));
}
}
}
}
}
}
// exchange JPEG thumbnail
m_shutterTimestamp[frameIndex] = 0;
result = UpdateFeatureModeIndex(const_cast<camera_metadata_t*>(pRequest->settings));
if (TRUE ==
ChxUtils::AndroidMetadata::IsVendorTagPresent(reinterpret_cast<const VOID*>(pRequest->settings),
VendorTag::VideoHDR10Mode))
{
VOID* pData = NULL;
StreamHDRMode HDRMode = StreamHDRMode::HDRModeNone;
ChxUtils::AndroidMetadata::GetVendorTagValue(reinterpret_cast<const VOID*>(pRequest->settings),
VendorTag::VideoHDR10Mode,
reinterpret_cast<VOID**>(&pData));
if (NULL != pData)
{
HDRMode = *(static_cast<StreamHDRMode*>(pData));
if (StreamHDRMode::HDRModeHDR10 == HDRMode)
{
m_tuningFeature2Value = static_cast<UINT32>(ChiModeFeature2SubModeType::HDR10);
}
else if (StreamHDRMode::HDRModeHLG == HDRMode)
{
m_tuningFeature2Value = static_cast<UINT32>(ChiModeFeature2SubModeType::HLG);
}
else
{
m_tuningFeature2Value = 0;
}
}
}
if (StreamConfigModeFastShutter == ExtensionModule::GetInstance()->GetOpMode(m_cameraId) && NULL != pRequest->settings)
{
UINT8 isFSModeVendorTag = 1;
UINT32 FSModeTagId = ExtensionModule::GetInstance()->GetVendorTagId(VendorTag::FastShutterMode);
result = m_vendorTagOps.pSetMetaData(
const_cast<VOID*>
(reinterpret_cast<const VOID*>(pRequest->settings)),
FSModeTagId,
&isFSModeVendorTag,
sizeof(isFSModeVendorTag));
}
UINT32 currentCameraTag;
result = m_vendorTagOps.pQueryVendorTagLocation("com.qti.chi.multicamerainfo", "CurrentCameraId", ¤tCameraTag);
if (result != CDKResultSuccess)
{
CHX_LOG_ERROR("Cannot find tag for CurrentCameraId !");
}
else
{
CurrentCameraId currentCameraId = {0};
currentCameraId.cameraId = GetCameraId();
result = m_vendorTagOps.pSetMetaData(const_cast<VOID*>
(reinterpret_cast<const VOID*>(pRequest->settings)),
currentCameraTag,
¤tCameraId,
sizeof(CurrentCameraId));
if (result != CDKResultSuccess)
{
CHX_LOG_ERROR("Couldn't set CurrentCameraId metadata tag !")
}
}
if (TRUE == hasSnapshotStreamRequest(pRequest))
{
WaitForDeferThread();
}
ChxUtils::Memset(&m_snapshotFeatures[frameIndex], 0, sizeof(SnapshotFeatureList));
if (TRUE == AdvancedFeatureEnabled())
{
for (UINT32 i = 0; i < pRequest->num_output_buffers; i++)
{
if (m_pSnapshotStream == reinterpret_cast<CHISTREAM*>(pRequest->output_buffers[i].stream))
{
pFeature = SelectFeatureToExecuteCaptureRequest(pRequest, 0);
}
}
if (NULL != pFeature)
{
m_shutterTimestamp[frameIndex] = 0;
result = pFeature->ExecuteProcessRequest(pRequest);
}
}
else
{
CHX_LOG_INFO("CameraUsecaseBase::ExecuteCaptureRequest()");
result = CameraUsecaseBase::ExecuteCaptureRequest(pRequest);
}
return result;
}
ProcessResultCb()
: 该方法会在创建Session的过程中,作为回调方法注册到其中,一旦Session数据处理完成的时候便会调用该方法将结果发送到AdvancedCameraUsecase中。/// Callback for a result from the driver
static VOID ProcessResultCb(
CHICAPTURERESULT* pResult,
VOID* pPrivateCallbackData)
{
SessionPrivateData* pCbData = static_cast<SessionPrivateData*>(pPrivateCallbackData);
static_cast<AdvancedCameraUsecase*>(pCbData->pUsecase)->ProcessResult(pResult, pPrivateCallbackData);
}
chi-cdk\core\chiusecase\chxadvancedcamerausecase.cpp
VOID AdvancedCameraUsecase::ProcessResult(
CHICAPTURERESULT* pResult,
VOID* pPrivateCallbackData)
{
if (TRUE == AdvancedFeatureEnabled())
{
SessionPrivateData* pSessionPrivateData = static_cast<SessionPrivateData*>(pPrivateCallbackData);
UINT32 sessionId = pSessionPrivateData->sessionId;
if ((NULL != pResult->pOutputMetadata) && (sessionId == m_realtimeSessionId))
{
ParseResultMetadata(m_pMetadataManager->GetMetadataFromHandle(pResult->pOutputMetadata));
}
m_pResultMutex->Lock();
Feature* pFeature = FindFeatureToProcessResult(static_cast<CHIPRIVDATA*>(pResult->pPrivData),
pResult->frameworkFrameNum,
pPrivateCallbackData);
if (NULL != pFeature)
{
pFeature->ProcessResult(pResult, pPrivateCallbackData);
}
else
{
CHX_LOG_ERROR("pFeature is NULL.");
}
m_pResultMutex->Unlock();
}
else
{
m_pResultMutex->Lock();
CameraUsecaseBase::SessionCbCaptureResult(pResult, pPrivateCallbackData);
m_pResultMutex->Unlock();
}
}
ProcessDriverPartialCaptureResult()
: 该方法会在创建Session的过程中,作为回调方法注册到其中,一旦Session中产生了partial meta data的时候,便会调用该方法将其发送至AdvancedCameraUsecase中。VOID AdvancedCameraUsecase::ProcessDriverPartialCaptureResult(
CHIPARTIALCAPTURERESULT* pResult,
VOID* pPrivateCallbackData)
{
if (TRUE == AdvancedFeatureEnabled())
{
SessionPrivateData* pSessionPrivateData = static_cast<SessionPrivateData*>(pPrivateCallbackData);
UINT32 sessionId = pSessionPrivateData->sessionId;
if ((NULL != pResult->pPartialResultMetadata) && (sessionId == m_realtimeSessionId))
{
ParseResultMetadata(m_pMetadataManager->GetMetadataFromHandle(pResult->pPartialResultMetadata));
}
m_pResultMutex->Lock();
Feature* pFeature = FindFeatureToProcessResult(static_cast<CHIPRIVDATA*>(pResult->pPrivData),
pResult->frameworkFrameNum,
pPrivateCallbackData);
if (NULL != pFeature)
{
if (PartialMetaSupport::CombinedPartialMeta ==ExtensionModule::GetInstance()->EnableCHIPartialData())
{
pFeature->ProcessCHIPartialData(pResult->frameworkFrameNum, sessionId);
}
pFeature->ProcessDriverPartialCaptureResult(pResult, pPrivateCallbackData);
}
else
{
CHX_LOG_ERROR("pFeature is NULL.");
}
m_pResultMutex->Unlock();
}
else
{
CameraUsecaseBase::SessionCbPartialCaptureResult(pResult, pPrivateCallbackData);
}
}
ProcessMessageCb()
: 该方法会在创建Session的过程中,作为回调方法注册到其中,一旦Session产生任何事件,便会调用该方法通知到AdvancedCameraUsecase中。 /// Callback for a message from the driver
static VOID ProcessMessageCb(
const CHIMESSAGEDESCRIPTOR* pMessageDescriptor,
VOID* pPrivateCallbackData)
{
SessionPrivateData* pCbData = static_cast<SessionPrivateData*>(pPrivateCallbackData);
static_cast<AdvancedCameraUsecase*>(pCbData->pUsecase)->ProcessMessage(pMessageDescriptor, pPrivateCallbackData);
}
ExecuteFlush()
: 该方法用于刷新AdvancedCameraUsecase。CDKResult CameraUsecaseBase::ExecuteFlush()
{
Session* ppSessionsToFlush[MaxSessions];
for (UINT sessionIndex = 0; sessionIndex < MaxSessions; sessionIndex++)
{
ppSessionsToFlush[sessionIndex] = m_sessions[sessionIndex].pSession;
}
FlushAllSessions(ppSessionsToFlush, MaxSessions);
return CDKResultSuccess;
}
Destroy()
: 该方法用于安全销毁AdvancedCameraUsecase。Usecase的可定制化部分被抽象出来放在了common_usecase.xml文件中,这里简单介绍其中的几个主要的标签含义:
Usecase
代表了一个特定的功能,该功能需要多条Pipeline组合起来实现,受Usecase统一管理,在CHI中通过Feature类进行实现,在XML中没有对应的定义,具体的Feature选取工作是在Usecase中完成的,通过在创建Feature的时候,传入Usecase的实例的方式,来和Usecase进行相互访问各自的资源。
以下是现有的Feature,其中Feature作为基类存在,定义了一系列通用方法。
几个常用的Feature:
FeatureHDR: 用于实现HDR功能,它负责管理内部的一条或者几条pipeline的资源以及它们的流转,最终输出具有HDR效果的图像。
FeatureMFNR: 用于实现MFNR功能,内部分为几个大的流程,分别包括Prefiltering、Blending、Postfilter以及最终的OfflineNoiseReproces(这一个是可选择使能的),每一个小功能中包含了各自的pipeline。
FeatureASD: 用于AI功能的实现,在预览的时候,接收每一帧数据,并且进行分析当前场景的AI识别输出结果,并其通过诸如到metadata方式给到上层,进行后续的处理。
camx\src\core\camxsession.cpp
用于管理pipeline的抽象控制单元,一个Session中至少拥有一个pipeine,并且控制着所有的硬件资源,管控着每一个内部pipeline的request的流转以及数据的输入输出,它没有可定制化的部分,所以在CHI中的XML文件中并没有将Session作为一个独立的单元进行定义。
Session的实现主要通过CamX中的Session类,其主要接口如下:
Initialize()
: 根据传入的参数SessionCreateData进行Session的初始化工作。CamxResult Session::Initialize(
SessionCreateData* pCreateData)
{
}
NotifyResult()
: 内部的Pipeline通过该接口将结果发送到Session中。VOID Session::NotifyResult(
ResultsData* pResultsData)
{
}
ProcessCaptureRequest()
: 该方法用于用户决定发送一个Request到Session中的时候调用。CamxResult Session::ProcessCaptureRequest(
const ChiPipelineRequest* pPipelineRequests)
{
}
StreamOn()
: 通过传入的Pipeline句柄,开始硬件的数据传输。CamxResult Session::StreamOn(
CHIPIPELINEHANDLE hPipelineDescriptor)
{
}
StreamOff()
: 通过传入的Pipeline句柄,停止硬件的数据传输。CamxResult Session::StreamOff(
CHIPIPELINEHANDLE hPipelineDescriptor,
CHIDEACTIVATEPIPELINEMODE modeBitmask)
{
}
camx\src\core\camxpipeline.cpp
作为提供单一特定功能的所有资源的集合,维护着所有硬件资源以及数据的流转,每一个Pipeline包括了其中的Node/Link,在CamX中通过Pipeline类进行实现,负责整条Pipeline的软硬件资源的维护以及业务逻辑的处理,接下来我们简单看下该类的几个主要接口:
CamxResult Pipeline::Create(
PipelineCreateInputData* pCreateInputData,
PipelineCreateOutputData* pCreateOutputData)
{
/// @todo (CAMX-1512) Add pipeline event
CAMX_ENTRYEXIT_SCOPE(CamxLogGroupCore, SCOPEEventTopologyCreate);
CAMX_ASSERT((NULL != pCreateInputData) && (NULL != pCreateOutputData));
CamxResult result = CamxResultSuccess;
Pipeline* pPipeline = CAMX_NEW Pipeline;
if (NULL != pPipeline)
{
// 实例化pCreateInputData对象
result = pPipeline->Initialize(pCreateInputData, pCreateOutputData);
if (CamxResultSuccess == result)
{
pCreateOutputData->pPipeline = pPipeline;
}
else
{
CAMX_LOG_ERROR(CamxLogGroupCore, "Pipeline[%s] Initialize failed!", pPipeline->GetPipelineIdentifierString());
pCreateOutputData->pPipeline = NULL;
pPipeline->Destroy();
pPipeline = NULL;
}
}
else
{
CAMX_ASSERT_ALWAYS_MESSAGE("Out of memory");
result = CamxResultENoMemory;
}
CAMX_ASSERT(CamxResultSuccess == result);
return result;
}
CamxResult Pipeline::OpenRequest(
UINT64 requestId,
UINT64 CSLSyncID,
BOOL isSyncMode,
UINT32 expectedExposureTimeInMs)
{
CamxResult result = CamxResultSuccess;
if (TRUE == IsRealTime())
{
// First PCR before stream on will be an init op, do not call CSLOpenRequest on this request.
// isInitialConfigPending flag is set to true on pipeline init and stream off
if ((TRUE == m_flags.isInitialConfigPending) && (FALSE == IsStreamedOn()))
{
m_flags.isInitialConfigPending = FALSE;
}
else
{
if (FALSE == GetFlushStatus())
{
if ((TRUE == isSyncMode) && (TRUE == GetDualCameraSyncEnabled(requestId)))
{
result = CSLOpenRequest(m_hCSLSession, m_hCSLLinkHandle, CSLSyncID, TRUE, CSLSyncLinkModeSync,
expectedExposureTimeInMs);
}
else
{
result = CSLOpenRequest(m_hCSLSession, m_hCSLLinkHandle, CSLSyncID, TRUE, CSLSyncLinkModeNoSync,
expectedExposureTimeInMs);
}
}
else
{
result = CamxResultECancelledRequest;
}
}
}
return result;
}
ProcessRequest()
: 开始下发RequestNotifyNodeMetadataDone()
: 该方法是Pipeline提供给Node,camx\src\core\camxpipeline.h
当Node内部生成了metadata,便会调用该方法来通知metadata已经完成,最后当所有Node都通知Pipeline metadata已经完成,Pipeline 便会调用ProcessMetadataRequestIdDone通知Session。
CAMX_INLINE VOID NotifyNodeMetadataDone(
UINT64 requestId)
{
UINT perRequestIdIndex = requestId % MaxPerRequestInfo;
PerRequestInfo* pPerRequestInfo = &m_perRequestInfo[perRequestIdIndex];
if (m_nodeCount == CamxAtomicIncU(&(pPerRequestInfo->numNodesMetadataDone)))
{
BOOL sofOutstanding =
CamxAtomicCompareExchangeU(&m_perRequestInfo[requestId % MaxPerRequestInfo].aMetadataReady, 0, 1);
if (TRUE == RequestInErrorState(requestId))
{
ProcessMetadataRequestIdError(requestId);
}
else
{
if (FALSE == sofOutstanding)
{
ProcessMetadataRequestIdDone(requestId, FALSE);
}
}
}
}
NotifyNodePartialMetadataDone()
: 该方法是Pipeline提供给Node,当Node内部生成了partial metadata,便会调用该方法来通知metadata已经完成,最后当所有Node都通知Pipeline metadata已经完成,Pipeline 便会调用ProcessPartialMetadataRequestIdDone通知Session。
CAMX_INLINE VOID NotifyNodePartialMetadataDone(
UINT64 requestId)
{
UINT perRequestIdIndex = requestId % MaxPerRequestInfo;
PerRequestInfo* pPerRequestInfo = &m_perRequestInfo[perRequestIdIndex];
if (m_nodeCount == CamxAtomicIncU(&(pPerRequestInfo->numNodesPartialMetadataDone)))
{
if (FALSE == RequestInErrorState(requestId))
{
ProcessPartialMetadataRequestIdDone(requestId);
}
}
}
SinkPortFenceSignaled()
: 用来通知Session 某个sink port的fence处于被触发的状态。camx\src\core\camxpipeline.cpp
VOID Pipeline::SinkPortFenceSignaled(
UINT sinkPortStreamId,
UINT32 sequenceId,
UINT64 requestId,
ChiBufferInfo* pChiBufferInfo)
{
ResultsData resultsData = {};
UINT perRequestIdIndex = requestId % MaxPerRequestInfo;
PerRequestInfo* pPerRequestInfo = &m_perRequestInfo[perRequestIdIndex];
resultsData.pipelineIndex = m_pipelineIndex;
resultsData.pPrivData = pPerRequestInfo->request.pPrivData;
resultsData.type = CbType::Buffer;
resultsData.cbPayload.buffer.sequenceId = sequenceId;
resultsData.cbPayload.buffer.streamId = sinkPortStreamId;
resultsData.cbPayload.buffer.bufferInfo = *pChiBufferInfo;
m_pSession->NotifyResult(&resultsData);
}
NonSinkPortFenceSignaled()
: 用来通知Session 某个non sink port的fence处于被触发的状态。VOID Pipeline::NonSinkPortFenceSignaled(
CSLFence* phFence,
UINT64 requestId)
{
m_pDeferredRequestQueue->FenceSignaledCallback(phFence, requestId);
}
文件位置:camx\src\core\camxnode.cpp
作为单个具有独立处理功能的抽象模块,可以是硬件单元也可以是软件单元,关于Node的具体实现是CamX中的Node类来完成的,其中CamX-CHI中主要分为两个大类,一个是高通自己实现的Node包括硬件Node,一个是CHI中提供给用户进行实现的Node,其主要方法如下:
CamxResult Node::Create(
const NodeCreateInputData* pCreateInputData,
NodeCreateOutputData* pCreateOutputData)
{
}
VOID Node::ProcessRequestIdDone(
UINT64 requestId)
{
}
VOID Node::ProcessMetadataDone(
UINT64 requestId)
{
}
VOID Node::ProcessPartialMetadataDone(
UINT64 requestId)
{
}
CamxResult Node::CreateImageBufferManager(
const CHAR* pBufferManagerName,
BufferManagerCreateData* pCreateData,
ImageBufferManager** ppImageBufferManager)
{
}
用于定义不同Port的连接,一个Port可以根据需要建立多条与其它从属于不同Node的Port的连接,它通过标签来进行定义,其中包括了作为输入端口,作为输出端口。
一个Link中包含了一个SrcPort和一个DstPort,分别代表了输入端口和输出端口,然后BufferProperties用于表示两个端口之间的buffer配置。
作为Node的输入输出的端口,在XML文件中,标签用来定义一个输入端口,标签用来定义输出端口,每一个Node都可以根据需要使用一个或者多个输入输出端口,使用OutputPort以及InputPort结构体来进行在代码中定义。
Port
通过之前的介绍,我们对于几个基本组件有了一个比较清晰地认识,但是任何一个框架体系并不是仅靠组件胡乱堆砌而成的,相反,它们都必须基于各自的定位,按照各自所独有的行为模式,同时按照约定俗称的一系列规则组合起来,共同完成整个框架某一特定的功能。所以这里不得不产生一个疑问,在该框架中它们到底是如何组织起来的呢?它们之间的关系又是如何的呢? 接下来我们以下图入手开始进行分析:
由上图可以看到,几者是通过包含关系组合起来的,Usecase 包含Feature,而Feature包含了Session,Session又维护了内部的Pipeline的流转,而每一条pipeline中又通过Link将所有Node都连接了起来,接下我们就这几种关系详细讲解下:
首先,一个Usecase代表了某个特定的图像采集场景,比如人像场景,后置拍照场景等等,在初始化的时候通过根据上层传入的一些具体信息来进行创建,这个过程中,一方面实例化了特定的Usecase,这个实例是用来管理整个场景的所有资源,同时也负责了其中的业务处理逻辑,另一方面,获取了定义在XML中的特定Usecase,获取了用于实现某些特定功能的pipeline。
其次,在Usecase中,Feature是一个可选项,如果当前用户选择了HDR模式或者需要在Zoom下进行拍照等特殊功能的话,在Usecase创建过程中,便会根据需要创建一个或者多个Feature,一般一个Feature对应着一个特定的功能,如果场景中并不需要任何特定的功能,则也完全可以不使用也不创建任何Feature。
然后,每一个Usecase或者Feature都可以包含一个或者多个Session,每一个Session都是直接管理并负责了内部的Pipeline的数据流转,其中每一次的Request都是Usecase或者Featuret通过Session下发到内部的Pipeline进行处理,数据处理完成之后也是通过Session的方法将结果给到CHI中,之后是直接给到上层还是将数据封装下再次下发到另一个Session中进行后处理,这都交由CHI来决定。
其中,Session和Pipeline是一对多的关系,通常一个Session只包含了一条Pipeline,用于某个特定图像处理功能的实现,但是也不绝对,比如FeatureMFNR中包含的Session就包括了三条pipeline,又比如后置人像预览,也是用一个Session包含了两条分别用于主副双摄预览的Pipeline,主要是要看当前功能需要的pipeline数量以及它们之间是否存在一定关联。
同时,根据上面关于Pipeline的定义,它内部包含了一定数量的Node,并且实现的功能越复杂,所包含的Node也就越多,同时Node之间的连接也就越错综复杂,比如后置人像预览虚化效果的实现就是将拿到的主副双摄的图像通过RTBOfflinePreview这一条Pipeline将两帧图像合成一帧具有虚化效果的图像,从而完成了虚化功能。
最后, Pipeline中的Node的连接方式是通过XML文件中的Link来进行描述的,每一个Link定义了一个输入端和输出端分别对应着不同Node上面的输入输出端口,通过这种方式就将其中的一个Node的输出端与另外一个Node的输入端,一个一个串联起来,等到图像数据从Pipeline的起始端开始输入的时候,便可以按照这种定义好的轨迹在一个一个Node之间进行流转,而在流转的过程中每经过一个Node都会在内部对数据进行处理,这样等到数据从起始端一直流转到最后一个Node的输出端的时候,数据就经过了很多次处理,这些处理效果最后叠加在一起便是该Pipeline所要实现的功能,比如降噪、虚化等等。
当系统启动的时候,Camera Provider主程序会被运行,在整个程序初始化的过程中会通过获取到的camera_module_t调用其get_number_of_camera接口获取底层支持的camera数量,由于是第一次获取,所以在CamX-CHI中会伴随着很多初始化动作,具体操作见下图:
主要流程如下:
1. 通过HAL3Module::GetInstance()
静态方法实例化了HAL3Module对象,
在其构造方法里面通过HwEnvironment::GetInstance()静态方法又实例化了HwEnvironment对象,
在其构造方法中,实例化了SettingsManager
对象,然后又在它构造方法中通过OverrideSettingsFile
对象获取了位于/vendor/etc/camera/camoverridesettings.txt
文件中的平台相关的配置信息(通过这种Override机制方便平台厂商加入自定义配置),该配置文件中,可以加入平台特定的配置项,比如可以通过设置multiCameraEnable的值来表示当前平台是否支持多摄,或者通过设置overrideLogLevels设置项来配置CamX-CHI部分的Log输出等级等等。
camx\src\core\hal\camxhal3module.cpp
// camera_module_t entry points
static int get_number_of_cameras(void)
{
CAMX_ENTRYEXIT_SCOPE(CamxLogGroupHAL, SCOPEEventHAL3GetNumberOfCameras);
return static_cast<int>(HAL3Module::GetInstance()->GetNumCameras());
}
UINT32 HAL3Module::GetNumCameras() const
{
return m_numFwCameras;
}
// 实例化了HAL3Module对象
HAL3Module* HAL3Module::GetInstance()
{
static HAL3Module s_HAL3ModuleSingleton;
return &s_HAL3ModuleSingleton;
}
HAL3Module::HAL3Module()
{
m_pStaticSettings = HwEnvironment::GetInstance()->GetStaticSettings();
}
camx\src\core\camxhwenvironment.cpp
HwEnvironment::HwEnvironment()
: m_initCapsStatus(InitCapsInvalid)
, m_pNCSObject(NULL)
{
Initialize();
}
CamxResult HwEnvironment::Initialize()
{
SettingsManager* pStaticSettingsManager = SettingsManager::Create(NULL);
}
camx\src\core\camxsettingsmanager.cpp
SettingsManager* SettingsManager::Create(
StaticSettings* pStaticSettings)
{
CamxResult result = CamxResultSuccess;
// Since this creation function is only used for static initialization, we don't want to track memory.
SettingsManager* pSettingsManager = CAMX_NEW SettingsManager();
if (pSettingsManager != NULL)
{
result = pSettingsManager->Initialize(pStaticSettings);
if (CamxResultSuccess != result)
{
CAMX_DELETE pSettingsManager;
pSettingsManager = NULL;
}
}
return pSettingsManager;
}
CamxResult SettingsManager::Initialize(
StaticSettings* pStaticSettings)
{
// Create the override settings file helper
m_pOverrideSettingsStore = OverrideSettingsFile::Create();
// Initialize the settings structure and override with user's values
if (CamxResultSuccess == result)
{
// Populate the default settings
InitializeDefaultSettings();
// Load the override settings from our override settings stores
result = LoadOverrideSettings(m_pOverrideSettingsStore);
}
}
camx\src\core\camxoverridesettingsfile.cpp
OverrideSettingsFile* OverrideSettingsFile::Create()
{
CamxResult result = CamxResultSuccess;
OverrideSettingsFile* pOverrideSettingsFile = CAMX_NEW OverrideSettingsFile();
if (pOverrideSettingsFile != NULL)
{
// 用于
result = pOverrideSettingsFile->Initialize();
if (CamxResultSuccess != result)
{
CAMX_DELETE pOverrideSettingsFile;
pOverrideSettingsFile = NULL;
}
}
return pOverrideSettingsFile;
}
用于读取camxoverridesetings.txt的配置文件
CamxResult OverrideSettingsFile::Initialize()
{
CamxResult result = CamxResultSuccess;
// Create the hash map to hold the override settings. Key is the settings string hash and value is a pointer to a
// SettingCacheEntry structure.
HashmapParams hashmapParams = {0};
hashmapParams.keySize = sizeof(UINT32);
hashmapParams.valSize = 0;
m_pOverrideSettingsCache = Hashmap::Create(&hashmapParams);
if (NULL == m_pOverrideSettingsCache)
{
result = CamxResultENoMemory;
}
if (CamxResultSuccess == result)
{
// Get the properties set on the device.
UpdatePropertyList();
// Since scratchString is used below to get the raw line from the override text file, the 128 should be way more than
// enough for the max length of whatever non-value stuff is specified on the override line (i.e. variable name, space,
// equals sign space, etc). Then, MaxStringLength is the max length string that a setting can have.
CHAR scratchString[MaxStringLength + 128] = {0};
FILE* pOverrideSettingsTextFile = NULL;
// Search the paths to find the files
for (UINT directory = 0; directory < CAMX_ARRAY_SIZE(OverrideSettingsTextFileDirectories); directory++)
{
{
OsUtils::SNPrintF(scratchString,
sizeof(scratchString),
"%s%s%s",
OverrideSettingsTextFileDirectories[directory],
PathSeparator,
OverrideSettingsTextFileName);
pOverrideSettingsTextFile = OsUtils::FOpen(scratchString, "r");
if (NULL == pOverrideSettingsTextFile)
{
// We didn't find an override settings text file, try another path
CAMX_LOG_VERBOSE(CamxLogGroupCore, "Could not find override settings text file at: %s", scratchString);
}
else
{
// We found an override settings text file.
CAMX_LOG_INFO(CamxLogGroupCore, "Opening override settings text file: %s", scratchString);
CHAR* pSettingString = NULL;
CHAR* pValueString = NULL;
CHAR* pContext = NULL;
UINT32 settingStringHash = 0;
CHAR strippedLine[MaxStringLength + 128];
// Parse the settings file one line at a time
while (NULL != OsUtils::FGetS(scratchString, sizeof(scratchString), pOverrideSettingsTextFile))
{
// First strip off all whitespace from the line to make it easier to handle enum type settings with
// combined values (e.g. A = B | C | D). After removing the whitespace, we only need to use '=' as the
// delimiter to extract the setting/value string pair (e.g. setting string = "A", value string =
// "B|C|D").
Utils::Memset(strippedLine, 0x0, sizeof(strippedLine));
OsUtils::StrStrip(strippedLine, scratchString, sizeof(strippedLine));
// Extract a setting/value string pair.
pSettingString = OsUtils::StrTokReentrant(strippedLine, "=", &pContext);
pValueString = OsUtils::StrTokReentrant(NULL, "=", &pContext);
// Check for invalid lines
if ((NULL == pSettingString) || (NULL == pValueString) || ('\0' == pValueString[0]))
{
continue;
}
// Discard this line if the setting string starts with a semicolon, indicating a comment
if (';' == pSettingString[0])
{
continue;
}
// Check whether the setting string is either an obfuscated hash or a human-readable setting name
if (('0' == pSettingString[0]) &&
(('x' == pSettingString[1]) || ('X' == pSettingString[1])))
{
// Setting string is a hex value, indicating it is a hash
settingStringHash = static_cast<UINT32>(OsUtils::StrToUL(pSettingString, NULL, 0));
}
else
{
// Setting string is a non-hex value, so get the hash
settingStringHash = GetSettingsStringHashValue(pSettingString);
}
// Check if there is an existing entry. If not, create a new one. If so, update the value.
SettingCacheEntry* pSettingCacheEntry = FindOverrideSetting(settingStringHash);
if (NULL == pSettingCacheEntry)
{
// No existing entry, add a key/value entry to the override settings cache
pSettingCacheEntry = static_cast<SettingCacheEntry*>(CAMX_CALLOC(sizeof(SettingCacheEntry)));
if (NULL == pSettingCacheEntry)
{
CAMX_LOG_ERROR(CamxLogGroupCore, "Out of memory; cannot allocate override setting entry");
result = CamxResultENoMemory;
break;
}
// Populate override setting entry data (value string is updated below)
pSettingCacheEntry->settingStringHash = settingStringHash;
OsUtils::StrLCpy(pSettingCacheEntry->keyString,
pSettingString,
sizeof(pSettingCacheEntry->keyString));
// Add the new override setting entry to override settings cache with the string has as the key
m_pOverrideSettingsCache->Put(&settingStringHash, pSettingCacheEntry);
}
// Set/overwrite value of setting
OsUtils::StrLCpy(pSettingCacheEntry->valueString,
pValueString,
sizeof(pSettingCacheEntry->valueString));
}
OsUtils::FClose(pOverrideSettingsTextFile);
pOverrideSettingsTextFile = NULL;
}
}
}
}
return result;
}
2. 同时在HwEnvironment
构造方法中会调用其Initialize方法,在该方法中实例化了CSLModeManager
对象,并通过CSLModeManager提供的接口,获取了所有底层支持的硬件设备信息,其中包括了Camera Request Manager、CAPS模块(该驱动模块主要用于CSL获取Camera平台驱动信息,以及IPE/BPS模块的电源控制)以及Sensor/IPE/Flash等硬件模块,并且通过调用CSLHwInternalProbeSensorHW
方法获取了当前设备安装的Sensor模组信息,并且将获取的信息暂存起来,等待后续阶段使用,总得来说在HwEnvironment初始化的过程中,通过探测方法获取了所有底层的硬件驱动模块,并将其信息存储下来供后续阶段使用。
camx\src\core\camxhwenvironment.cpp
CamxResult HwEnvironment::Initialize()
{
// params 是CSLInitializeParams
result = CSLInitialize(¶ms);
}
CSLModeManager* g_pCSLModeManager;
CamxResult CSLInitialize(
CSLInitializeParams* pInitializeParams)
{
// 查找并获取/dev/videoX 设备,该节点对应着Kernel部分的Request Manager
CSLHwEnumerateAndAddCSLHwDevice(CSLInternalHwVideodevice, CAM_VNODE_DEVICE_TYPE)
// 查找并获取/dev/v4l-subdevX cpas设备
CSLHwEnumerateAndAddCSLHwDevice(CSLInternalHwVideoSubdevice, CAM_CPAS_DEVICE_TYPE)
// 查找并获取/dev/v4l-subdevX其它设备,诸如Sensor/IFE/IPE/Flash等
CSLHwEnumerateAndAddCSLHwDevice(CSLInternalHwVideoSubdeviceAll, 0)
// g_pCSLModeManager 为CSLModeManager
g_pCSLModeManager = CAMX_NEW CSLModeManager(pInitializeParams);
}
camx\src\csl\hw\camxcslhwinternal.cpp
BOOL CSLHwEnumerateAndAddCSLHwDevice(
CSLHwInternalHwEnumeration deviceType,
UINT32 deviceClass)
{
}
camx\src\csl\hw\camxcslhw.cpp
CamxResult CSLImageSensorProbeHW(
CSLMemHandle hPacket,
SIZE_T offset,
CSLImageSensorProbeResult* pProbeResult)
{
CamxResult result = CamxResultEFailed;
if ((NULL != pProbeResult) && (CSLInvalidHandle != hPacket))
{
if (TRUE == CSLHwInstanceGetRefCount())
{
INT32 deviceIndex;
result = CSLHwInternalProbeSensorHW(hPacket, offset, &deviceIndex);
if (CamxResultSuccess == result)
{
pProbeResult->detected = TRUE;
pProbeResult->deviceIndex = deviceIndex;
}
CSLHwInstancePutRefCount();
}
}
else
{
result = CamxResultEInvalidArg;
}
return result;
}
camx\src\csl\hw\camxcslhwinternalsensor.cpp
/*
1.获取了当前设备安装的Sensor模组信息,并且将获取的信息暂存起来,等待后续阶段使用
2.查找Sensor设备,并统计数量
*/
CamxResult CSLHwInternalProbeSensorHW(
CSLMemHandle hPacket,
SIZE_T offset,
INT32* pDeviceIndex)
{
CSLBufferInfo probeDataBuffer;
CSLPacket* pPacket;
CSLCmdMemDesc* pCmdDescs;
CamxResult result = CamxResultEFailed;
result = CSLGetBufferInfoHW(hPacket, &probeDataBuffer);
if (CamxResultSuccess == result)
{
cam_cmd_probe* pSlaveInfo;
CSLHandle hIndex = CSLInvalidHandle;
CSLHwDevice* pLoophw = NULL;
pPacket = reinterpret_cast<CSLPacket*>(CamX::Utils::VoidPtrInc(probeDataBuffer.pVirtualAddr, offset));
pCmdDescs = reinterpret_cast<CSLCmdMemDesc*>(CamX::Utils::VoidPtrInc(&pPacket->data, pPacket->cmdBuffersOffset));
result = CSLGetBufferInfoHW(pCmdDescs->hMem, &probeDataBuffer);
if (CamxResultSuccess == result)
{
pSlaveInfo = reinterpret_cast<cam_cmd_probe*>(CamX::Utils::VoidPtrInc(probeDataBuffer.pVirtualAddr,
sizeof(cam_cmd_i2c_info)));
result = CSLHwSensorFindSlot(&hIndex, pSlaveInfo->camera_id);
if (CamxResultSuccess == result)
{
pLoophw = &g_CSLHwInstance.CSLHwSensorSlotDevices[hIndex];
pLoophw->lock->Lock();
if (NULL != pLoophw->deviceOp.Ioctl)
{
struct cam_control ioctlCmd;
ioctlCmd.op_code = CAM_SENSOR_PROBE_CMD;
ioctlCmd.size = sizeof(ioctlCmd.handle);
ioctlCmd.handle_type = CAM_HANDLE_MEM_HANDLE;
ioctlCmd.reserved = 0;
ioctlCmd.handle = hPacket;
result = pLoophw->deviceOp.Ioctl(pLoophw, VIDIOC_CAM_CONTROL, &ioctlCmd);
}
pLoophw->lock->Unlock();
}
// Now move this node to the CSL Instance devices list if successful sensor probe
if (CamxResultSuccess == result)
{
CHAR device_name[CSLHwMaxDevName];
UINT32 groupId;
INT deviceFd;
pLoophw->lock->Lock();
CamX::OsUtils::SNPrintF(device_name, sizeof(device_name), "%s", pLoophw->devName);
groupId = pLoophw->kmdGroupId;
deviceFd = pLoophw->fd;
pLoophw->lock->Unlock();
CSLHwRemoveSensorSlotDeviceFromInstance(pLoophw);
CSLHwAddKMDDeviceToInstance(device_name, groupId, pDeviceIndex, deviceFd);
}
}
}
return result;
}
3. 之后通过调用HwEnvironment对象中的ProbeChiComponents
方法在/vendor/lib64/camera/components路径下找寻各个Node生成的So库,并获取Node提供的标准对外接口,这些Node不但包括CHI部分用户自定义的模块,还包括了CamX部分实现的硬件模块,并最后都将其都存入ExternalComponentInfo
对象中,等待后续阶段使用。
camx\src\core\chi\camxchicomponent.cpp
CamxResult ProbeChiComponents(
ExternalComponentInfo* pExternalComponentInfo,
UINT* pNumExternalComponent)
{
}
camx\src\core\camxhwenvironment.h
struct ExternalComponentInfo
{
CHAR* pComponentName; ///< External Component name
union
{
CHINODEINTERFACE nodeInterface; ///< node Interface for custom node to call into Chi.
CHIALGORITHMINTERFACE algoInterface; ///< algo Interface for custom node to call into Chi.
};
union
{
CHINODECALLBACKS nodeCallbacks; ///< Node Callback Interface for Chi to call into custom node.
CHIHISTALGORITHMCALLBACKS histAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIAECALGORITHMCALLBACKS AECAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIAFALGORITHMCALLBACKS AFAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIAWBALGORITHMCALLBACKS AWBAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIAFDALGORITHMCALLBACKS AFDAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIASDALGORITHMCALLBACKS ASDAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIPDLIBRARYCALLBACKS PDLibCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHIISPHVXALGORITHMCALLBACKS HVXAlgoCallbacks; ///< Algo Callback Interface for Chi to call into custom node.
CHITRACKERALGORITHMCALLBACKS trackerAlgoCallbacks; ///< Algo Callback Interface for chi to call into custom code.
};
ExternalComponentNodeAlgo nodeAlgoType; ///< 0 for node and 1 for algo
BOOL inUse; ///< 1 for inUse and 0 for free
ExternalComponentStatsAlgo statsAlgo; ///< stats algo type
};
另外在初始化阶段还有一个比较重要的操作就是CamX 与CHI是通过互相dlopen对方的So库,获取了对方的入口方法,最后通过彼此的入口方法获取了对方操作方法集合,之后再通过这些操作方法与对方进行通讯,其主要流程见下图:
从上图不难看出,在HAL3Module构造方法中会去通过dlopen方法加载com.qti.chi.override.so库,并通过dlsym映射出CHI部分的入口方法chi_hal_override_entry,并调用该方法将HAL3Module对像中的成员变量m_ChiAppCallbacks(CHIAppCallbacks)传入CHI中,其中包含了很多函数指针,这些函数指针分别对应着CHI部分的操作方法集中的方法,一旦进入到CHI中,就会将CHI本地的操作方法集合中的函数地址依次赋值给m_ChiAppCallbacks,这样CamX后续就可以通过这个成员变量调用到CHI中方法,从而保持了与CHI的通讯。
同样地,CHI中的ExtensionModule在初始化的时候,其构造方法中也会通过调用dlopen方法加载camera.qcom.so库,并将其入口方法ChiEntry通过dlsym映射出来,之后调用该方法,将g_chiContextOps(ChiContextOps,该结构体中定义了很多指针函数)作为参数传入CamX中,一旦进入CamX中,便会将本地的操作方法地址依次赋值给g_chiContextOps中的每一个函数指针,这样CHI之后就可以通过g_chiContextOps访问到CamX方法。
camx\src\core\hal\camxhal3module.cpp
HAL3Module::HAL3Module()
{
if (NULL != m_hChiOverrideModuleHandle)
{
CHIHALOverrideEntry funcCHIHALOverrideEntry =
reinterpret_cast<CHIHALOverrideEntry>(
CamX::OsUtils::LibGetAddr(m_hChiOverrideModuleHandle, "chi_hal_override_entry"));
}
}
chi-cdk\api\common\chioverride.h
/**
简介:驱动程序调用的用于初始化HAL覆盖模块的入口点。
详情:此函数必须由每个 com..chi.override.so 导出,以便驱动程序初始化覆盖界面。
此函数在相机服务器初始化期间调用,该过程发生在 HAL 进程启动期间。
除了在驱动程序和覆盖模块之间传递必要的函数指针之外,这还允许覆盖模块有机会做它希望在启动时做的任何初始化工作。
这可能包括加载不同的 .so 文件,这些文件提供了额外的功能。 此处所做的任何事情都不能特定于会话,
并且必须保护存储在覆盖模块中的任何全局变量免受多个会话的访问同时。
参数:
@param [in] ops 指向定义 CHI 函数的结构的指针。 覆盖模块必须保存这些函数指针,以便调用驱动程序。
@param [in,out] callbacks 指向一个结构的指针,该结构定义了驱动程序需要进入覆盖模块的各种回调。 覆盖模块必须填写这些函数指针。
*/
CDK_VISIBILITY_PUBLIC void chi_hal_override_entry(
chi_hal_callback_ops_t* callbacks);
一旦用户打开了相机应用,App中便会去调用CameraManager的openCamera方法,该方法之后会最终调用到Camera Service中的CameraService::connectDevice方法,然后通过ICameraDevice::open()这一个HIDL接口通知Provider,然后在Provider内部又通过调用之前获取的camera_module_t中methods的open方法来获取一个Camera 设备,对应于HAL中的camera3_device_t结构体,紧接着,在Provider中会继续调用获取到的camera3_device_t的initialize方法进行初始化动作。接下来我们便来详细分析下CamX-CHI对于open以及initialize的具体实现流程:
该方法是camera_module_t的标准方法,主要用来获取camera3_device_t设备结构体的,CamX-CHI对其进行了实现,open方法中完成的工作主要有以下几个:
1.将当前camera id传入CHI中进行remap操作,当然这个remap操作逻辑完全是根据CHI中用户需求来的,用户可以根据自己的需要在CHI中加入自定义remap逻辑。
2.实例化HALDevice对象,其构造函数中调用Initialize方法,该方法会填充CamX中自定义的Camera3Device结构体。
3.将m_HALCallbacks.process_capture_result指向了本地方法ProcessCaptureResult以及m_HALCallbacks.notify_result指向了本地方法Notify(之后会在配置数据流的过程中,将m_HALCallbacks注册到CHI中, 一旦当CHI数据处理完成之后,便会通过这两个回调方法将数据或者事件回传给CamX)。
camx\src\core\hal\camxhaldevice.cpp
CamxResult HALDevice::Initialize(
const HwModule* pHwModule,
UINT32 cameraId)
{
// 当CHI数据处理完成之后,便会通过这两个回调方法将数据或者事件回传给CamX
m_HALCallbacks.process_capture_result = ProcessCaptureResult;
m_HALCallbacks.notify_result = Notify;
}
VOID HALDevice::ProcessCaptureResult(
const camera3_device_t* pCamera3Device,
const camera3_capture_result_t* pCamera3_CaptureResult)
{
}
camx\src\core\hal\camxhal3entry.cpp
4.最后将HALDevice 中的Camera3Device成员变量作为返回值给到Provider中的CameraCaptureSession中。
Camera3Device 其实重定义了camera3_device_t,其中HwDevice对应于camera3_device_t中的hw_device_t,Camera3DeviceOps对应于camera3_device_ops_t,而在HALDevice的初始化过程中,会将CamX实现的HAL3接口的结构体g_camera3DeviceOps赋值给Camera3DeviceOps中。
camx\src\core\hal\camxcommontypes.h
/// @brief Encapsulates the function pointer type definitions that define the camera device operations. This structure redefines
/// the camera3_device_ops_t enum defined in hardware/camera3.h. Additional information can be found there.
struct Camera3DeviceOps
{
/// @brief Defines the prototype for the COMMON API initialize method
INT (*Initialize)(const Camera3Device*, const Camera3CbOps*);
/// @brief Defines the prototype for the COMMON API configure_streams method
INT (*ConfigureStreams)(const Camera3Device*, Camera3StreamConfig*);
/// @brief Defines the prototype for the COMMON API register_stream_buffers method
INT (*RegisterStreamBuffers)(const Camera3Device*, const Camera3StreamBufferSet*);
/// @brief Defines the prototype for the COMMON API construct_default_request_settings method
const Metadata* (*ConstructDefaultRequestSettings)(const Camera3Device*, INT);
/// @brief Defines the prototype for the COMMON API construct_default_request_settings method
INT (*ProcessCaptureRequest)(const Camera3Device*, Camera3CaptureRequest*);
/// @brief Defines the prototype for the COMMON API get_metadata_vendor_tag_ops method
VOID (*GetMetadataVendorTagOps)(const Camera3Device*, VendorTagQueryOps*);
/// @brief Defines the prototype for the COMMON API dump method
VOID (*Dump)(const Camera3Device*, INT);
/// @brief Defines the prototype for the COMMON API flush method
INT (*Flush)(const Camera3Device*);
VOID* pReserved[8]; ///< Padding reserved for future use
};
camera3_device_ops_t* GetCamera3DeviceOps()
{
return &g_camera3DeviceOps;
}
该方法在调用open后紧接着被调用,主要用于将上层的回调接口传入HAL中,一旦有数据或者事件产生,CamX便会通过这些回调接口将数据或者事件上传至调用者,其内部的实现较为简单。
initialize方法中有两个参数,分别是之前通过open方法获取的camera3_device_t结构体和实现了camera3_callback_ops_t的CameraDevice,很显然camera3_device_t结构体并不是重点,所以该方法的主要工作是将camera3_callback_ops_t与CamX关联上,一旦数据准备完成便通过这里camera3_callback_ops_t中回调方法将数据回传到Camera Provider中的CameraDevice中,基本流程可以总结为以下几点:
1.实例化了一个Camera3CbOpsRedirect对象并将其加入了g_HAL3Entry.m_cbOpsList队列中,这样方便之后需要的时候能够顺利拿到该对象。
2.将本地的process_capture_result以及notify方法地址分别赋值给Camera3CbOpsRedirect.cbOps中的process_capture_result以及notify函数指针。
3.将上层传入的回调方法结构体指针pCamera3CbOpsAPI赋值给Camera3CbOpsRedirect.pCbOpsAPI,并将Camera3CbOpsRedirect.cbOps赋值给pCamera3CbOpsAPI,通过JumpTableHal3的initialize方法将pCamera3CbOpsAPI传给HALDevice中的m_pCamera3CbOps成员变量,这样HALDevice中的m_pCamera3CbOps就指向了CamX中本地方法process_capture_result以及notify。
经过这样的一番操作之后,一旦CHI有数据传入便会首先进入到本地方法ProcessCaptureResult,然后在该方法中获取到HALDevice的成员变量m_pCamera3CbOps,进而调用m_pCamera3CbOps中的process_capture_result方法,即camxhal3entry.cpp中定义的process_capture_result方法,然后这个方法中会去调用JumpTableHAL3.process_capture_result方法,该方法最终会去调用Camera3CbOpsRedirect.pCbOpsAPI中的process_capture_result方法,这样就调到从Provider传入的回调方法,将数据顺利给到了CameraCaptureSession中。
在打开相机应用过程中,App在获取并打开相机设备之后,会调用CameraDevice.createCaptureSession来获取CameraDeviceSession,并且通过Camera api v2标准接口,通知Camera Service,调用其CameraDeviceClient.endConfigure方法,在该方法内部又会去通过HIDL接口ICameraDeviceSession::configureStreams_3_4通知Provider开始处理此次配置需求,在Provider内部,会去通过在调用open流程中获取的camera3_device_t结构体的configure_streams方法来将数据流的配置传入CamX-CHI中,之后由CamX-CHI完成对数据流的配置工作,接下来我们来详细分析下CamX-CHI对于该标准HAL3接口 configure_streams的具体实现:
配置数据流是整个CamX-CHI流程比较重要的一环,其中主要包括两个阶段:
1.选择UsecaseId
2.根据选择的UsecaseId创建Usecase
接下来我们就这两个阶段分别进行详细介绍:
不同的UsecaseId分别对应的不同的应用场景,该阶段是通过调用UsecaseSelector::GetMatchingUsecase()方法来实现的,该函数中通过传入的operation_mode、num_streams配置数据流数量以及当前使用的Sensor个数来选择相应的UsecaseId,比如当numPhysicalCameras值大于1同时配置的数据流数量num_streams大于1时选择的就是UsecaseId::MultiCamera,表示当前采用的是双摄场景。
根据之前选择的UsecaseId
,通过UsecaseFactory
来创建相应的Usecase
,
其中Class Usecase
是所有Usecase
的基类,其中定义并实现了一些通用接口,CameraUsecaseBase
继承于Usecase
,并扩展了部分功能。AdvancedCameraUsecase
又继承于CameraUsecaseBase
,作为主要负责大部分场景的Usecase实现类,另外对于多摄场景,现提供了继承于AdvancedCameraUsecase
的UsecaseMultiCamera
来负责实现。
除了双摄场景,其它大部分场景使用的都是AdvancedCameraUsecase
类来管理各项资源的,接下来我们重点梳理下AdvancedCameraUsecase::Create()
方法。
在AdvancedCameraUsecase::Create方法中做了很多初始化操作,其中包括了以下几个阶段:
1.获取XML文件中Usecase配置信息
2.创建Feature
3.保存数据流,重建Usecase的配置信息
4.调用父类CameraUsecaseBase的initialize方法,进行一些常规初始化工作
接下来我们就这几个阶段逐一进行分析:
这一部分主要通过调用CameraUsecaseBase::GetXMLUsecaseByName
方法进行实现。
该方法的主要操作是从PerNumTargetUsecases
数组中找到匹配到给定的usecaseName
的Usecase
,并作为返回值返回给调用者,其中这里我们以"UsecaseZSL“为例进行分析,PerNumTargetUsecases
的定义是在g_pipeline.h中,该文件是在编译过程中通过usecaseconverter.pl脚本将定义在个平台目录下的common_usecase.xml中的内容转换生成g_pipeline.h。
如果当前场景选取了Feature,则调用FeatureSetup来完成创建工作。
该方法主要是通过诸如operation_mode、camera数量以及UsecaseId等信息来决定需要选择哪些Feature,具体逻辑比较清晰,一旦决定需要使用哪一个Feature之后,便调用相应的Feature的Create()方法进行初始化操作。
从Camera Service 传入的数据流,需要将其存储下来,供后续使用,同时高通针对Usecase也加入了Override机制,根据需要可以选择性地扩展Usecase,这两个步骤的实现主要是通过SelectUsecaseConfig
方法来实现。
其中主要是调用以下两个方法来实现的:
ConfigureStream: 该方法将从上层配置的数据流指针存入AdvancedCameraUsecase中,其中包括了用于预览的m_pPreviewStream
以及用于拍照的m_pSnapshotStream
。
BuildUsecase: 这个方法用来重新在原有的Usecase上面加入了Feature中所需要的pipeline,并创建了一个新的Usecase,并将其存入AdvancedCameraUsecase中的m_pChiUsecase
成员变量中,紧接着通过SetPipelineToSessionMapping
方法将pipeline与Session进行关联。
文件路径:chi-cdk\core\chiusecase\chxadvancedcamerausecase.h
/// Does one time initialization of the created object
CDKResult Initialize(
ChiCallBacks* pCallbacks, ///< Callbacks to be called for each session/pipeline
camera3_stream_configuration_t* pStreamConfig = NULL);
该方法中的操作主要有以下三个:
该方法有两个参数,第二个是缺省的,第一个是·ChiCallBacks·,该参数是作为创建的每一条Session的回调方法,当Session中的pipeline全部跑完之后,会回调该方法将数据投递到CHI中。
CDKResult CreateSession(INT sessionId,
Pipeline** ppPipelines,
ChiCallBacks* pCallbacks);
根据之前获取的pipeline信息开始创建每一条pipeline,通过调用CreatePipeline()
方法实现。
创建Session,通过CreateSession()
方法实现,此时会将AdvancedCameraUsecase端的回调函数注册到Session中,一旦Session中数据处理完成,便会调用回调将数据回传给AdvancedCameraUsecase。
综上,整个configure_stream
过程,基本可以概括为以下几点:
operation_mode
、camera 个数以及stream的配置信息选取了对应的UsecaseId
;UsecaseId
,使用UsecaseFactory
简单工厂类创建了用于管理整个场景下所有资源的AdvancedCameraUsecase
对象;AdvancedCameraUsecase
对象是通过调用其Create()
方法完成,该方法中获取了common_usecase.xml
定义的关于Usecase的配置信息,之后又根据需要创建了Feature并选取了Feature所需的pipeline,并通过Override机制将Feature中所需要的Pipeline加入重建后的Usecase中;CameraUsecaseBaese
的initialize
方法依次创建了各个pipeline
以及Session
,并且将AdvancedCameraUsecase
的成员方法注册到Session,用于Session将数据返回给Usecase中;当用户打开相机应用进行预览或者点击一次拍照操作的时候,便触发了一次拍照请求,该动作首先通过CameraDeviceSession
的capture或者setRepeatingRequest
方法将请求通过Camera api v2接口下发到Camera Service中,然后在Camera Service内部将此次请求发送到CameraDevice::RequestThread
线程中进行处理,一旦进入到该线程之后,便会最终通过HIDL接口ICameraCaptureSession:processCaptureRequest_3_4
将请求发送至Provider中,之后当Provider收到请求之后,会调用camera3_device_t
结构体的process_capture_request
开始了HAL针对此次Request的处理,而该处理是由CamX-CHI来负责实现,现在我们就来看下CamX-CHI是如何实现该方法的:
首先CamX中会将此次request转发到HALDevice中,再通过HALDevice对象调用之前初始化的时候获取的CHI部分的回调接口m_ChiAppCallbacks.chi_override_process_request
方法(chi_override_process_request
方法的定义位于chxextensioninterface.cpp
中)将request发送到CHI部分。
chi-cdk\core\chiframework\chxextensioninterface.cpp
static CDKResult chi_override_process_request(
const camera3_device_t* camera3_device,
camera3_capture_request_t* capture_request,
void* priv)
{
ExtensionModule* pExtensionModule = ExtensionModule::GetInstance();
return pExtensionModule->OverrideProcessRequest(camera3_device, capture_request, priv);
}
在chi_override_process_request
方法中会去获取ExtensionModule
对象,并将request发送到ExtensionModule
对象中,该对象中存储了之前创建的Usecase对象,然后经过层层调用,最终会调用AdvancedCameraUsecase
的ExecuteCaptureRequest
方法,该方法负责处理此次Request,具体流程如下:
在AdvancedCameraUsecase
的ExecuteCaptureRequest
中会有两个主要的分支来分别处理:
chi-cdk\core\chiusecase\chxadvancedcamerausecase.cpp
CDKResult CameraUsecaseBase::ExecuteCaptureRequest(
camera3_capture_request_t* pRequest)
{
}
如果当前并没有任何Feature需要实现,此时便会走默认流程,根据上面的流程图所示,这里会调用CameraUsecaseBase::ExecuteCaptureRequest
方法,在该方法中,首先会将request取出,重新封装成CHICAPTUREREQUEST
,然后调用CheckAndActivatePipeline
方法唤醒pipeline,这一操作到最后会调到Session
的StreamOn
方法,在唤醒了pipeline之后,继续往下执行,再将封装后的Request发送到CamX中,最终调用到相应的Session::ProcessCaptureRequest
方法,此时Request就进入到了Session内部进行流转了。
如果当前场景需要实现某个Feature,则直接调用Feature的ExecuteProcessRequest
方法将此次request送入Feature中处理,最后依然会调用到Session::StreamOn
以及Session::ProcessCaptureRequest
方法来分别完成唤醒pipeline以及下发request的到Session的操作。
该流程最终都会调用到两个比较关键的方法Session::StreamOn
以及Session::ProcessCaptureRequest
,接下来针对这两个方法重点介绍下:
camx\src\core\camxsession.cpp
CamxResult Session::StreamOn(
CHIPIPELINEHANDLE hPipelineDescriptor)
{
}
从方法名称基本可以知道该方法主要用于开始硬件的数据输出,具体就是进行配置Sensor寄存器,让其开始出图,并且将当前的Session的状态告知每一Node,让它们在自己内部也做好处理数据的准备,所以之后的相关Request的流转都是以该方法为前提进行的,所以该方法重要性可见一斑,其操作流程见下图:
Session的StreamOn方法中主要做了如下两个工作:
FinalizeDeferPipeline()
方法,如果当前pipeline并未初始化,则会调用pipeline的FinalizePipeline
方法,这里方法里面会去针对每一个从属于当前pipeline的Node依次做FinalizeInitialization
–>CreateBufferManagers
–>NotifyPipelineCreated
–>PrepareNodeStreamOn
操作,FinalizeInitialization
用于完成Node的初始化动作,NotifyPipelineCreated
用于通知Node当前Pipeline的状态,此时Node内部可以根据自身的需要作相应的操作,PrepareNodeStreamOn
方法的主要是完成Sensor以及IFE等Node的控制硬件模块出图前的配置,其中包括了曝光的参数的设置,CreateBufferManagers
方法涉及到CamX-CHI中的一个非常重要的Buffer管理机制,用于Node的ImageBufferManager
的创建,而该类用于管理Node中的output port的buffer申请/流转/释放等操作。CamxResult Session::FinalizeDeferPipeline(
UINT32 pipelineIndex)
{
}
CamxResult Session::FinalizePipeline(
SessionCreateData* pCreateData,
UINT32 pipelineIndex,
BIT enableQTimer)
{
}
camx\src\core\camxnode.cpp
CamxResult Node::FinalizeInitialization(
FinalizeInitializationData* pFinalizeInitializationData)
{
}
CamxResult Node::CreateBufferManagers()
{
}
CamxResult Node::NotifyPipelineCreated(
BOOL isDefer)
{
}
camx\src\core\camxnode.h
/// PrepareNodeStreamOn
///
/// @brief Method that is called by topology before streamOn is sent to HW. This generally happens in FinalizePipeline
/// This really doesn't mean StreamOn is on the way immediately.
///
/// @return CamxResultSuccess if successful
CAMX_INLINE CamxResult PrepareNodeStreamOn()
{
CamxResult result = PrepareStreamOn();
return result;
}
Pipeline的StreamOn
方法,里面会进一步通知CSL部分开启数据流,并且调用每一个Node的OnNodeStreamOn
方法,该方法会去调用ImageBufferManager的Activate()
,该方法里面会去真正分配用于装载图像数据的buffer,之后会去调用CHI部分实现的用户自定义的Nod的pOnStreamOn
方法,用户可以在该方法中做一些自定义的操作。针对每一次的Request的流转,都是以该方法为入口开始的,具体流程见下图:
上述流程可以总结为以下几个步骤:
1. 通过调用Session的ProcessCaptureRequest
方法进入到Session,然后调用Pipeline中的ProcessRequest
方法通知Pipeline开始处理此次Request。
2. 在Pipeline中,会先去调用内部的每一个Node的SetupRequest
方法分别设置该Node的Output Port
以及Input Port
,之后通过调用DRQ(DeferredRequestQueue)
的AddDeferredNode
方法将所有的Node加入到DRQ中,其中DRQ中有两个队列分别是用于保存没有依赖项的Node的m_readyNode
s以及保存处于等待依赖关系满足的Node的m_deferredNodes
,当调用DRQ的DispatchReadyNodes
方法后,会开始从m_readyNodes
队列中取出Node调用其ProcessRequest
开始进入Node内部处理本次request,在处理过程中会更新meta data
数据,并更新至DRQ中,当该Node处理完成之后,会将处于m_deferredNodes
中的已无依赖关系的Node移到m_readyNodes
中,并再次调用DispatchReadyNodes
方法从m_readyNodes
取出Node进行处理。
3. 与此过程中,当Node的数据处理完成之后会通过CSLFenceCallback
通知到Pipeline,此时Pipeline会判断当前Node的Output port
是否是Sink Port(输出到CHI)
,如果不是,则会更新依赖项到DRQ中,并且将不存在依赖项的Node移到m_readyNodes
队列中,然后调用DispatchReadyNdoes
继续进入到DRQ中流转,如果是Sink Port
,则表示此Node是整个Pipeline的最末端,调用sinkPortFenceSignaled
将数据给到Session中,最后通过调用Session中的NotifyResult
将结果发送到CHI中。
文件路径:camx\src\core\camxdeferredrequestqueue.h
上述流程里面中涉及到DeferredRequestQueue
这个概念,这里简单介绍下:
DeferredRequestQueue
继承于IPropertyPoolObserver
,实现了OnPropertyUpdate/OnMetadataUpdate/OnPropertyFailure/OnMetadataFailure
接口,这几个接口用于接收Meta Data
以及Property
的更新,另外,DRQ主要包含了以下几个主要方法:
class DeferredRequestQueue : public IPropertyPoolObserver
{
}
Create()
该方法用于创建DRQ,其中创建了用于存储依赖信息的m_pDependencyMap
,并将自己注册到MetadataPool
中,一旦有meta data或者property更新便会通过类中实现的几个接口通知到DRQ;DeferredRequestQueue* DeferredRequestQueue::Create(
DeferredRequestQueueCreateData* pCreateData)
{
}
AddDeferredNode()
该方法主要用于添加依赖项到m_pDependencyMap
中;CamxResult DeferredRequestQueue::AddDeferredNode(
UINT64 requestId,
Node* pNode,
DependencyUnit* pDependencyUnit)
{
}
FenceSignaledCallback()
当Node内部针对某次request处理完成之后,会通过一系列回调通知到DRQ,而其调用的方法便是该方法,在该方法中,会首先调用UpdateDependency
更新依赖项,然后调用DispatchReadyNodes
触发开始对处于ready状态的Node开始进行处理;VOID DeferredRequestQueue::FenceSignaledCallback(
CSLFence* phFence,
UINT64 requestId)
{
// Topology will call in here with the current request Id
UpdateDependency(PropertyIDInvalid, phFence, NULL, requestId, 0, TRUE, FALSE);
DispatchReadyNodes();
}
OnPropertyUpdate()
该方法是定义于IPropertyPoolObserver
接口,DRQ实现了它,主要用于接收Property
更新的通知,并在内部调用UpdateDependency
更新依赖项。VOID DeferredRequestQueue::OnPropertyUpdate(
PropertyID id,
UINT64 requestId,
UINT pipelineId)
{
// Data Pool will call in here with the current request Id
UpdateDependency(id, NULL, NULL, requestId, pipelineId, TRUE, FALSE);
}
OnMetadataUpdate()
该方法是定义于IPropertyPoolObserver
接口,DRQ实现了它,主要用于接收Meta data更新的通知,并在内部调用UpdateDependency`更新依赖项。VOID DeferredRequestQueue::OnMetadataUpdate(
UINT32 tag,
UINT64 requestId,
UINT pipelineId)
{
// Data Pool will call in here with the current request Id
UpdateDependency(static_cast<PropertyID>(tag), NULL, NULL, requestId, pipelineId, TRUE, FALSE);
}
UpdateDependency()
该方法用于更新Node的依赖项信息,并且将没有依赖的Node从m_deferredNodes
队列中移到m_readyNodes
,这样该Node就可以在之后的某次DispatchReadyNodes
调用之后投入运行。VOID DeferredRequestQueue::UpdateDependency(
PropertyID propertyId,
CSLFence* phFence,
ChiFence* pChiFence,
UINT64 requestId,
UINT pipelineId,
BOOL isSuccess,
BOOL isFlush)
{
}
DeferredWorkerWrapper()
该方法是m_hDeferredWorker
线程的处理函数,主要用于处理需要下发request的Node,同时再次更新依赖项,最后会再次调用DispatchReadyNodes
开始处理。VOID* DeferredRequestQueue::DeferredWorkerWrapper(
VOID* pData)
{
}
AddDeferredNode
方法加入到DRQ中,此时所有的Node都会加入到m_readyNodes
中,然后通过调用dispatchReadyNodes
方法,触发DRQ开始进行整个内部处理流程,基本流程可以参见下图,接下来就以该图进行深入梳理下:
文件位置:camx\src\core\camxdeferredrequestqueue.cpp
1. 当调用了DRQ的dispatchReadyNodes
方法后,会从m_readyNodes
链表里面依次取出Dependency
,将其投递到DeferredWorkerWrapper
线程中,在该线程会从Dependency
取出Node调用其ProcessRequest
方法开始在Node内部处理本次request,处理完成之后如果当前Node依然存在依赖项,则调用AddDeferredNode
方法将Node再次加入到m_deferredNodes
链表中,并且加入新的依赖项,存入m_pDependencyMap hash
表中。
//
VOID DeferredRequestQueue::DispatchReadyNodes()
{
while (0 < m_readyNodes.NumNodes())
{
LightweightDoublyLinkedListNode* pReady = NULL;
Dependency* pDependency = NULL;
}
}
//
CamxResult DeferredRequestQueue::AddDeferredNode(
UINT64 requestId,
Node* pNode,
DependencyUnit* pDependencyUnit)
{
}
//
CamxResult DeferredRequestQueue::Initialize(
DeferredRequestQueueCreateData* pCreateData)
{
if (CamxResultSuccess == result)
{
HashmapParams hashMapParams = { 0 };
hashMapParams.keySize = sizeof(DependencyKey);
hashMapParams.valSize = sizeof(LightweightDoublyLinkedList*);
hashMapParams.maxNumBuckets = MaxNodeType * pCreateData->requestQueueDepth;
hashMapParams.multiMap = 0;
m_pDependencyMap = Hashmap::Create(&hashMapParams);
if (NULL == m_pDependencyMap)
{
CAMX_ASSERT_ALWAYS_MESSAGE("Out of memory");
result = CamxResultENoMemory;
}
}
}
2. 在Node处理request的过程中,会持续更新meta data以及property,此时会通过调用MetadataSlot
的PublishMetadata
方法更新到MetadataPool
中,此时MetadataPool
会调用之前在DRQ初始化时候注册的几个回调方法OnPropertyUpdate
以及OnMetadataUpdate
方法通知DRQ,此时有新的meta data
和property
更新,接下来会在这两个方法中调用UpdateDependency
方法,去更新meta data
和property
到m_pDependencyMap
中,并且将没有任何依赖项的Node从m_deferredNodes
取出加入到m_readyNodes
,等待处理。
VOID DeferredRequestQueue::UpdateDependency(
PropertyID propertyId,
CSLFence* phFence,
ChiFence* pChiFence,
UINT64 requestId,
UINT pipelineId,
BOOL isSuccess,
BOOL isFlush)
{
}
3. 与此同时,Node的处理结果也会通过ProcessFenceCallback
方法通知pipeline,并且调用pipeline的NonSinkPortFenceSignaled
方法,在该方法内部又会去调用DRQ的FenceSignaledCallback
方法,而该方法又会调用UpdateDependency
更新依赖,并将依赖项都满足的Node从m_deferredNodes
取出加入到m_readyNodes
,然后调用dispatchReadyNodes
继续进行处理。
在用户开启了相机应用,相机框架收到某次Request请求之后会开始对其进行处理,一旦有图像数据产生便会通过层层回调最终返回到应用层进行显示,这里我们针对CamX-CHI部分对于拍照结果的上传流程进行一个简单的梳理:
每一个Request对应了三个Result,分别是partial metadata
、metadata
以及image data
,对于每一个Result,上传过程可以大致分为以下两个阶段:
在整个requets流转的过程中,一旦Node中有Partial Meta Data
产生,便会调用Node的ProcessPartialMetadataDone
方法去通知从属的Pipeline,其内部又调用了pipeline的NotifyNodePartialMetadataDone
方法。每次调用Pipeline的NotifyNodePartialMetadataDone
方法都会去将pPerRequestInfo→numNodesPartialMetadataDone
+1并且判断当前值是否等于pipeline中的Node数量,一旦相等,便说明当前所有的Node都完成了partial meta data
的更新动作,此时,便会调用ProcessPartialMetadataRequestIdDone
方法,里面会去取出partial meta data
,并且重新封装成ResultsData
结构体,将其作为参数通过Session的NotifyResult
方法传入Session中,之后在Session中经过层层调用最终会调用到内部成员变量m_chiCallBacks的ChiProcessPartialCaptureResult
方法,该方法正是创建Session的时候,传入Session中的Usecase的方法(AdvancedCameraUsecase::ProcessDriverPartialCaptureResultCb)
,通过该方法就将meta data
返回到了CHI中。
同样地,Meta data
的逻辑和Partial Meta Data
很相似,每个Node在处理request的过程中,会调用ProcessMetadataDone
方法将数据发送到Pipeline中,一旦所有的Node的meta data否发送完成了,pipeline会调用NotifyNodeMetadataDone
方法,将最终的结果发送至Session中,最后经过层层调用,会调用Session 中成员变量m_chiCallBacks
的ChiProcessCaptureResult
方法,将结果发送到CHI中Usecase中。
图像数据的流转和前两个meta data
的流转有点儿差异,一旦Node内部图像数据处理完成后便会调用其ProcessFenceCallback
方法,在该方法中会去检查当前输出是否是SInk Buffer
,如果是则会调用Pipeline的SinkPortFenceSignaled
方法将数据发送到Pipeline中,在该方法中Pipeline又会将数据发送至Session中,最后经过层层调用,会调用Session 中成员变量m_chiCallBacks
的ChiProcessCaptureResult
方法,将结果发送到CHI中Usecase中。
以常用的AdvancedCameraUsecase为例进行代码的梳理:
如上图所示,整个result的流转逻辑还是比较清晰的,CamX通过回调方法将结果回传给CHI中,而在CHI中,首先判断是否需要发送到具体的Feature的, 如果需要,则调用相应Feature的ProcessDriverPartialCaptureResult
或者ProcessResult
方法将结果发送到具体的Feature中,一旦处理完成,便会调用CameraUsecaseBase
的ProcessAndReturnPartialMetadataFinishedResults
以及ProcessAndReturnFinishedResults
方法将结果发送到Usecase中,如果当前不需要发送到Feature进行处理,就在AdvancedCameraUsecase中调用CameraUsecaseBase
的SessionCbPartialCaptureResult
以及SessionCbCaptureResult
方法,然后通过Usecase::ReturnFrameResult
方法将结果发送到ExtensionModule
中,之后调用ExtensionModule中存储的CamX中的回调函数process_capture_result
将结果发送到CamX中的HALDevice
中,之后HALDevice又通过之前存储的上层传入的回调方法,将结果最终发送到CameraDeviceSession
中。
ProcessDriverPartialCaptureResultCb
ProcessDriverPartialCaptureResult
Feature
CameraUsecaseBase::ProcessAndReturnPartialMetadataFinishedResults
ProcessAndReturnFinishedResults
Usecase
CameraUsecaseBase::SessionCbPartialCaptureResult
Usecase::ReturnFrameResult
ExtensionModule
ProcessResultCb
ProcessResult
Feature
SessionCbCaptureResult
chi-cdk\core\chiusecase\chxadvancedcamerausecase.h
/// Callback for Partial Capture result from the driver
static VOID ProcessDriverPartialCaptureResultCb(
CHIPARTIALCAPTURERESULT* pCaptureResult,
VOID* pPrivateCallbackData)
{
SessionPrivateData* pCbData = static_cast<SessionPrivateData*>(pPrivateCallbackData);
static_cast<AdvancedCameraUsecase*>(pCbData->pUsecase)->ProcessDriverPartialCaptureResult(
pCaptureResult,
pPrivateCallbackData);
}
chi-cdk\core\chiusecase\chxadvancedcamerausecase.cpp
VOID AdvancedCameraUsecase::ProcessDriverPartialCaptureResult(
CHIPARTIALCAPTURERESULT* pResult,
VOID* pPrivateCallbackData)
{
if (TRUE == AdvancedFeatureEnabled())
{
SessionPrivateData* pSessionPrivateData = static_cast<SessionPrivateData*>(pPrivateCallbackData);
UINT32 sessionId = pSessionPrivateData->sessionId;
if ((NULL != pResult->pPartialResultMetadata) && (sessionId == m_realtimeSessionId))
{
ParseResultMetadata(m_pMetadataManager->GetMetadataFromHandle(pResult->pPartialResultMetadata));
}
m_pResultMutex->Lock();
Feature* pFeature = FindFeatureToProcessResult(static_cast<CHIPRIVDATA*>(pResult->pPrivData),
pResult->frameworkFrameNum,
pPrivateCallbackData);
if (NULL != pFeature)
{
if (PartialMetaSupport::CombinedPartialMeta ==ExtensionModule::GetInstance()->EnableCHIPartialData())
{
pFeature->ProcessCHIPartialData(pResult->frameworkFrameNum, sessionId);
}
pFeature->ProcessDriverPartialCaptureResult(pResult, pPrivateCallbackData);
}
else
{
CHX_LOG_ERROR("pFeature is NULL.");
}
m_pResultMutex->Unlock();
}
else
{
CameraUsecaseBase::SessionCbPartialCaptureResult(pResult, pPrivateCallbackData);
}
}
通过以上的梳理,可以发现,
CamX-CHI框架设计优点:
整个CamX-CHI框架设计的很不错,目录结构清晰明确,框架简单高效,流程控制逻辑分明,
比如针对某一图像请求,整个流程经过Usecase、Feature、Session、Pipeline并且给到具体的Node中进行处理,最终输出结果。
另外,相比较之前的QCamera & Mm-Camera框架的针对某个算法的扩展需要在整个流程代码中嵌入自定义的修改做法而言,CamX-CHI通过将自定义实现的放入CHI中,提高了其扩展性,降低了开发门槛,使得平台厂商在并不是很熟悉CamX框架的情况下也可以通过小规模的修改成功添加新功能。
CamX-CHI框架设计缺点:
该框架异步化处理太多,加大了定位问题以及解决问题的难度,给开发者带来了不小的压力。另外,框架对于内存的要求较高,所以在一些低端机型尤其是低内存机型上,整个框架的运行效率可能会受到一定的限制,进而导致相机效率低于预期。