E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
VLM
【智驾中的大模型 -2】
VLM
在自动驾驶中的应用
1.前言随着端到端AI和多模态学习的迅猛发展,
VLM
(视觉-语言模型)在自动驾驶领域中的应用正逐渐成为一个备受瞩目的重要研究方向。
地平线开发者
·
2025-04-16 05:25
征程6
上手教程
自动驾驶
算法
大模型 + 机械臂:通过语音控制实现物体抓取(Gazebo 仿真验证)
本文结合语音识别、视觉大模型(
VLM
)和机械臂运动控制,实现了一套通过语音指令控制机械臂在Gazebo仿真环境中抓取物体的系统。
江湖独行侠
·
2025-04-13 18:32
人工智能
计算机视觉
AUTOSAR从入门到精通-端到端(End-to-End)方案(三)
车云协同的数据闭环技术驱动因素大模型与生成式AI技术的引入数据与算力需求的升级当前的技术挑战算力与实时性测试验证方法的不足模型的可解释性问题端到端自动驾驶系统HE-Drive相关工作HE-Drive的核心组件
VLM
格图素书
·
2025-04-13 14:35
数学建模
自动驾驶
人工智能
端到端自动驾驶
VLM
模型:LMDrive: Closed-Loop End-to-End Driving with Large Language Models
论文地址:https://arxiv.org/pdf/2312.07488代码地址:https://github.com/opendilab/LMDrive1.摘要一方面,目前自动驾驶领域取得了显著进展,但在遇到长尾场景或复杂城市路况时,当前的自动驾驶方法仍容易失效甚至导致严重事故。另一方面,大语言模型(LLMs)展现出了接近“通用人工智能”的推理能力。因此,利用大语言模型所具备的“人类知识”帮助
机械心
·
2025-04-11 21:10
端到端自动驾驶
自动驾驶
语言模型
人工智能
VLM
端到端
OpenDriveVLA:通过大型视觉-语言-动作模型实现端到端自动驾驶
OpenDriveVLA以开源预训练大型视觉-语言模型(
VLM
)为基础,以3D环境感知、自车状态和驾驶
三谷秋水
·
2025-04-11 21:08
自动驾驶
计算机视觉
大模型
自动驾驶
人工智能
机器学习
计算机视觉
机器人
语言模型
开源的7B参数OCR视觉大模型:RolmOCR
1.背景介绍早些时候,AllenInstituteforAI发布了olmOCR,这是一个基于Qwen2-VL-7B视觉语言模型(
VLM
)的开源工具,用于处理PDF和其他复杂文档的OCR(光学字符识别)。
Panesle
·
2025-04-11 13:11
前沿
ocr
人工智能
大模型
开源
月之暗面再次开源Kimi大模型——Kimi-VL-A3B-Instruct 和 Kimi-VL-A3B-Thinking
我们介绍的Kimi-VL,是一种高效的开源专家混合物(MoE)视觉语言模型(
VLM
),它具有先进的多模态推理能力、长语境理解能力和强大的代理能力,而在其语言解码器(Kimi-VL-A3B)中只需激活2.8B
吴脑的键客
·
2025-04-10 17:41
机器人技术
DeepSeek
开源
人工智能
从CLIP到未来:深入探讨视觉任务的视觉语言模型
VLM
“如果模型可以识别图像而无需针对该特定任务进行训练怎么办?”欢迎来到视觉语言模型的世界。更多专栏文章点击查看:LLM架构专栏大模型架构专栏文章阅读指南Agent系列强化学习系列欢迎加入大模型交流群:加群链接https://docs.qq.com/doc/DS3VGS0NFVHNRR0Ru#公众号【柏企阅文】知乎【柏企】个人网站:https://www.chenbaiqi.com简介:为什么视觉任务
·
2025-04-10 15:46
人工智能
HybridVLA:一个统一视觉-语言-动作模型中的协同扩散和自回归
用于常识推理的视觉-语言模型(
VLM
)的最新进展导致视觉-语言-动作(VLA)模型的发展,使机器人能够执行泛化操作。尽管现有的自回归VLA方法利用大规模预训练知识,
三谷秋水
·
2025-04-04 04:33
智能体
计算机视觉
大模型
人工智能
计算机视觉
机器人
语言模型
深度学习
机器学习
小体积大智慧!IBM开源的文档解析神器SmolDocling如何让复杂文档处理变得简单高效?
SmolDocling是基于视觉语言模型(
VLM
)技术开发的文档处理工具,属于轻
遇见小码
·
2025-04-04 01:17
AI棱镜实验室
开源
人工智能
运维
AIGC
具身系列——NLP工程师切入机器人和具身智能方向
职位高频词汇:
VLM
调优经验、核心算法(Diffusion、RL、VIT)、pytorch、仿真环境(IsaacGym、Mujoco、webots)基于当前具身智能行业发展趋势和岗位需求,以下是为NLP
music&movie
·
2025-03-25 21:47
多模态
Agent
自然语言处理
机器人
人工智能
理想发布的下一代自动驾驶架构MindVLA是什么?
以下是其关键技术及自动驾驶架构的演进分析:一、MindVLA的关键技术端到端+
VLM
双系统架构采用“视觉-语言-行为”(
VLM
)融合的端到端模型,直接从原始传感器数据生成驾驶决策,减少传统模块化流程的延迟和信息损失
AndrewHZ
·
2025-03-24 22:54
深度学习新浪潮
自动驾驶
架构
算法
深度学习
VLA
多模态大模型
计算机视觉
论文阅读笔记——π0: A Vision-Language-Action Flow Model for General Robot Control
π0论文π0π_0π0是基于预训练的
VLM
模型增加了actionexpert,并结合了flowmatching方法训练的自回归模型,能够直接输出模型的actionchunk(50)。
寻丶幽风
·
2025-03-13 01:33
论文阅读笔记
论文阅读
笔记
人工智能
机器人
语言模型
Mark Github上的一个项目,
VLM
-R1。GRPO为什么促使MLLM在部分垂域比SFT更好的表现
项目地址:GitHub-om-ai-lab/
VLM
-R1:SolveVisualUnderstandingwithReinforcedVLMs最近做毕设,看到
VLM
-R1项目,一个有趣的现象:在Grounding
朱韬韬
·
2025-03-08 16:40
github
GRPO
SFT
重磅发现!DeepSeek R1方法成功迁移到视觉领域,多模态AI迎来新突破!
近日,一项令人瞩目的成果引发了广泛关注——
VLM
-R1开源项目成功将DeepSeek的R1方法从纯文本领域迁移至视觉语言领域,为多模态AI的发展开辟了新的道路,极大地拓展了多模态领域的想象空间。
zhangjiaofa
·
2025-03-06 23:21
DeepSeek
R1&
AI人工智能大模型
人工智能
DeepSeek
R1
多模态
基于DeepSeek 的图生文最新算法
VLM
-R1
目录一、算法介绍二算法部署三模型下载四算法测试五可视化脚本一、算法介绍
VLM
-R1:稳定且可通用的R1风格大型视觉语言模型自从Deepseek-R1推出以来,出现了许多专注于复制和改进它的作品。
AI算法网奇
·
2025-03-03 18:02
深度学习宝典
大模型
人工智能
计算机视觉
Xmodel-
VLM
: A Simple Baseline for Multimodal Vision Language Model
本文是LLM系列文章,针对《Xmodel-
VLM
:ASimpleBaselineforMultimodalVisionLanguageModel》的翻译。
UnknownBody
·
2025-02-23 14:58
LLM
Daily
Multimodal
语言模型
人工智能
自然语言处理
LLaVA-CoT: Let Vision Language Models Reason Step-by-Step
然而,当前的视觉语言模型(
VLM
UnknownBody
·
2025-02-22 16:08
LLM
Daily
Multimodal
语言模型
人工智能
自然语言处理
SGlang 专为大模型设计的高效服务框架
SGlang是一种专为大型语言模型(LLM)和视觉语言模型(
VLM
)设计的高效服务框架,旨在提升模型的推理速度和灵活性。
kcarly
·
2025-02-06 08:52
大模型知识乱炖
LLM
大模型
SGLang
WiseAD:基于视觉-语言模型的知识增强型端到端自动驾驶
随着视觉语言模型(
VLM
)的快速发展,人类通用知识和令人印象深刻的逻辑推理能力的出现,推动人们对将
VLM
应用于高级自动驾驶任务(如场景理解和决策)的兴趣日益浓厚。
硅谷秋水
·
2025-01-24 07:41
计算机视觉
大模型
自动驾驶
语言模型
自动驾驶
人工智能
机器学习
VLM
系列——Qwen2 VL——论文解读——前瞻(源码解读)
一、概述1、是什么是一系列多模态大型语言模型(MLLM),其中包括2B、7B、72B三个版本,整体采用视觉编码器+LLM形式(可以认为没有任何投射层)。比较创新的是图像缩放方式+3DLLM位置编码+(预估后面的训练方式也不太一样)。能够处理包括文本、图像在内的多种数据类型,具备图片描述、单图文问答、多图问对话、视频理解对话、json格式、多语言、agent、高清图理解(代码编写和debug论文暂时
TigerZ*
·
2025-01-16 18:48
AIGC算法
AIGC
人工智能
transformer
计算机视觉
图像处理
[CLIP-VIT-L + Qwen] 多模态大模型源码阅读 - trainer篇
整体含义逐行解读create_optimizer函数(重构)整体含义逐行解读create_optimizer_and_scheduler函数(重构)整体含义逐行解读参考repo:WatchTower-Liu/
VLM
FlowerLoveJava
·
2024-08-24 22:40
多模态大模型源码阅读
多模态学习笔记
人工智能
计算机视觉
python
机器学习
自然语言处理
神经网络
深度学习
CLIP-VIT-L + Qwen 多模态源码阅读 - 语言模型篇(3)
多模态学习笔记-语言模型篇(3)参考repo:WatchTower-Liu/
VLM
-learning;url:VLLM-BASE吐槽今天接着昨天的源码继续看,黑神话:悟空正好今天发售,希望广大coder
FlowerLoveJava
·
2024-08-24 22:10
多模态学习笔记
多模态大模型源码阅读
学习
笔记
计算机视觉
神经网络
自然语言处理
图像处理
人工智能
[CLIP-VIT-L + Qwen] 多模态大模型源码阅读 - 语言模型篇(2)
多模态学习笔记-语言模型篇(2)参考repo:WatchTower-Liu/
VLM
-learning;url:
vlm
-learning吐槽今天的源码看的欲仙欲死,NTK(neuraltangentkernel
FlowerLoveJava
·
2024-08-23 09:14
多模态学习笔记
多模态大模型源码阅读
学习
笔记
nlp
计算机视觉
人工智能
深度学习
自然语言处理
VLM
系列——Llava1.6——论文解读
一、概述1、是什么Llava1.6是llava1.5的升级暂时还没有论文等,是一个多模态视觉-文本大语言模型,可以完成:图像描述、视觉问答、根据图片写代码(HTML、JS、CSS),潜在可以完成单个目标的视觉定位、名画名人等识别(问答、描述)。支持单幅图片输入(可以作为第一个或第二个输入),多轮文本对话。本文基于CLIP的视觉编码器,以及多个版本语言解码器,使用最简单的两层FC构成MLP映射视觉特
TigerZ*
·
2024-02-12 06:10
AIGC算法
人工智能
AIGC
深度学习
计算机视觉
VLM
(MLLM)系列——论文解读总结
建议以下几篇都看一下吧,因为这几篇相对出发点都有新意,并且也都在同期的思南评测中有排名。CLIP*数据:用了4亿的互联网自有图文对数据。*模型:由一个视觉编码器、一个文本编码器*训练:一阶段预训练,在32768的batchsize下做的对比学习。中文CLIP*数据:由LAION5B等构成一个2亿的图文对数据。*模型:整体和CLIP类似,由一个视觉编码器、一个文本编码器。*训练:两阶段预训练,权重来
TigerZ*
·
2024-02-12 06:40
AIGC算法
深度学习
人工智能
计算机视觉
AIGC
图像处理
算法
VLM
系列——MoE-LLaVa——论文解读
一、概述1、是什么moe-Llava是Llava1.5的改进全称《MoE-LLaVA:MixtureofExpertsforLargeVision-LanguageModels》,是一个多模态视觉-文本大语言模型,可以完成:图像描述、视觉问答,潜在可以完成单个目标的视觉定位、名画名人等识别(问答、描述),未知是否能偶根据图片写代码(HTML、JS、CSS)。支持单幅图片输入(可以作为第一个或第二个
TigerZ*
·
2024-02-12 06:40
AIGC算法
深度学习
人工智能
AIGC
计算机视觉
transformer
VLM
系列——LLaVA-MoLE——论文解读
一、概述1、是什么Llava-MoLE是Llava1.5的改进全称《LLaVA-MoLE:SparseMixtureofLoRAExpertsforMitigatingDataConflictsinInstructionFinetuningMLLMs》,是一个多模态视觉-文本大语言模型,可以完成:图像描述、视觉问答,潜在可以完成单个目标的视觉定位、名画名人等识别(问答、描述),未知是否能偶根据图片
TigerZ*
·
2024-02-12 06:37
AIGC算法
深度学习
人工智能
AIGC
transformer
计算机视觉
(2024,
VLM
,操纵链)CogCoM:训练大型视觉语言模型,通过操作链深入细节
CogCoM:TrainLargeVision-LanguageModelsDivingintoDetailsthroughChainofManipulations公和众和号:EDPJ(进Q交流群:922230617或加VX:CV_EDPJ进V交流群)目录0.摘要2.方法2.1.术语2.2.数据生成2.3训练3.实验5.局限性0.摘要视觉-语言模型(Vision-LanguageModels,VL
EDPJ
·
2024-02-08 20:52
论文笔记
深度学习
人工智能
CodeFuse-
VLM
开源,支持多模态多任务预训练/微调
CodeFuse-MFT-
VLM
项目地址:https://github.com/codefuse-ai/CodeFuse-MFT-VLMCodeFuse-
VLM
-14B模型地址:CodeFuse-
VLM
CodeFuse
·
2024-02-06 22:37
AIGC
人工智能
语言模型
开源
ai编程
VLM
系列——Llava1.5——论文解读
一、概述1、是什么Llava1.5是llava的升级全称《ImprovedBaselineswithVisualInstructionTuning》,是一个多模态视觉-文本大语言模型,可以完成:图像描述、视觉问答、根据图片写代码(HTML、JS、CSS),潜在可以完成单个目标的视觉定位、名画名人等识别(问答、描述)。支持单幅图片输入(可以作为第一个或第二个输入),多轮文本对话。本文基于CLIP的视
TigerZ*
·
2024-01-29 21:00
AIGC算法
人工智能
AIGC
计算机视觉
深度学习
transformer
VLM
系列——Qwen-VL 千问—— 论文解读
一、概述1、是什么Qwen-VL全称《Qwen-VL:AVersatileVision-LanguageModelforUnderstanding,Localization,TextReading,andBeyond》,是一个多模态的视觉-文本模型,当前Qwen-VL(20231707)可以完成:图像字幕、视觉问答、OCR、文档理解和视觉定位功能,同时支持多语言对话、多图像交错对话、细粒度识别。基
TigerZ*
·
2024-01-29 21:00
AIGC算法
人工智能
深度学习
机器学习
AIGC
计算机视觉
transformer
VLM
系列——Monkey——论文解读
一、概述1、是什么Monkey全称《Monkey:ImageResolutionandTextLabelAreImportantThingsforLargeMulti-modalModels》,是一个多模态的视觉-文本模型,当前版本(20231130)为基于Qwen-vl的三阶段微调(增加了Lora+visualadapter支持更高的分辨率)可以完成对一幅图片进行描述(强项,更细节)、相关事物(
TigerZ*
·
2024-01-29 21:30
AIGC算法
人工智能
深度学习
python
AIGC
计算机视觉
transformer
VLM
系列——Object Recognition as Next Token Prediction——论文解读
一、概述1、是什么结合了CLIP的视觉编码器+语言模型Llama的部分参数,将常见的图片描述任务转变为只输出属性,换言之将图片分类转变为预测下一个文本输出token。这样就能够生成图片的topK属性(英文),用于开放域的图片Tag场景。2、亮点*对图像-标题(从原始标题中提取名词作为参考标签)对进行训练,比图像-问题-答案三元组更容易收集和注释。对于推理,生成文本片段作为标签而不是句子。*解码器具
TigerZ*
·
2024-01-29 21:29
AIGC算法
AIGC
计算机视觉
深度学习
人工智能
transformer
VLM
系列——Instruct BLIP——论文解读
一、概述1、是什么InstructBLIP全称《InstructBLIP:TowardsGeneral-purposeVision-LanguageModelswithInstructionTuning》,是一个多模态视觉-文本大语言模型,隶属BLIP系列第三篇,可以完成:图像描述、视觉问答、名画名人等识别(问答、描述)。支持单幅图片输入(作为第一个输入),多轮文本对话。(不支持图文交错输入、写代
TigerZ*
·
2024-01-29 21:29
AIGC算法
AIGC
计算机视觉
深度学习
图像处理
人工智能
VLM
系列——COGVLM—— 论文解读
一、概述1、是什么COGVLM全称《VISUALEXPERTFORLARGELANGUAGE》,是一个多模态的视觉-文本模型,当前CogVLM-17B(20231130)可以完成对一幅图片进行描述、图中物体或指定输出检测框、相关事物进行问答,但是这个版本只支持一个图片(为且必为首次输入),只支持英文,几乎不支持写代码(目前测试是的)。2、亮点论文认为:在不损害NLP模型原本能力的情况下,通过“视觉
TigerZ*
·
2024-01-29 21:29
AIGC算法
AIGC
计算机视觉
深度学习
人工智能
transformer
VLM
系列——Llava——论文解读
一、概述1、是什么Llava全称《VisualInstructionTuning》,是一个多模态视觉-文本大语言模型,可以完成:图像描述、视觉问答、根据图片写代码(HTML、JS、CSS),潜在可以完成单个目标的视觉定位、名画名人等识别(问答、描述)。支持单幅图片输入(可以作为第一个或第二个输入),多轮文本对话。本文基于CLIP的视觉编码器,以及LLaMa语言解码器,构建了一个大规模的多模态模型(
TigerZ*
·
2024-01-29 21:57
AIGC算法
AIGC
深度学习
transformer
计算机视觉
人工智能
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--大模型、扩散模型、视觉语言导航
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉语言导航VLN具身智能,机器人强化学习开放词汇,检测分割[晓理紫]每日论文分享(有中文摘要,源码或项目地址)==LLM==标题:SpeechTokenizer
晓理紫
·
2024-01-28 05:10
每日论文
机器人
深度学习
人工智能
机器学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--强化学习、模仿学习、机器人、开放词汇
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉语言导航VLN强化学习RL模仿学习IL机器人开放词汇,检测分割==RL==标题:BeyondTaskPerformance:EvaluatingandReducingtheFlawsofLargeM
晓理紫
·
2024-01-28 05:38
每日论文
学习
机器人
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--大模型、扩散模型、视觉导航
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割[晓理紫]每日论文分享(有中文摘要,源码或项目地址)==LLM==标题:VisualWebArena:EvaluatingMultimodalAgentso
晓理紫
·
2024-01-27 19:07
每日论文
数据库
人工智能
语言模型
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--机器人、强化学习
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割[晓理紫]每日论文分享(有中文摘要,源码或项目地址)==humanrobotinteraction==标题:
晓理紫
·
2024-01-27 19:07
每日论文
机器人
机器学习
人工智能
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--大模型、扩散模型、视觉导航
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割==LLM==标题:SpeechGPT-Gen:ScalingChain-of-InformationSpeechGeneration
晓理紫
·
2024-01-27 19:07
每日论文
机器人
人工智能
深度学习
机器学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--机器人、强化学习
专属领域论文订阅VX扫吗关注{晓理紫|小李子},每日更新论文,如感兴趣,请转发给有需要的同学,谢谢支持如果你感觉对你有帮助可以扫吗关注,每日准时为你推送最新论文分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能
晓理紫
·
2024-01-27 19:37
每日论文
机器人
机器学习
深度学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--机器人相关、强化学习
专属领域论文订阅VX扫吗关注{晓理紫|小李子},每日更新论文,如感兴趣,请转发给有需要的同学,谢谢支持分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割[晓理紫
晓理紫
·
2024-01-27 19:36
每日论文
机器人
人工智能
机器学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--机器人、强化学习、开放词汇
专属领域论文订阅VX扫吗关注{晓理紫|小李子},每日更新论文,如感兴趣,请转发给有需要的同学,谢谢支持.非常感谢提供建议分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇
晓理紫
·
2024-01-27 19:36
每日论文
机器人
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--机器人、强化学习、开放词汇
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割==roboticagent==标题:TheConversationistheCommand:InteractingwithReal-WorldAuto
晓理紫
·
2024-01-25 13:01
每日论文
机器人
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--大模型、扩散模型、视觉导航
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割==chatgpt@largelanguagemodel@LLM==标题:HAZARDChallenge:EmbodiedDecisionMakingi
晓理紫
·
2024-01-25 13:01
每日论文
人工智能
深度学习
机器学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)-大模型、扩散模型、视觉导航
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割==LLM==标题:MindYourFormat:TowardsConsistentEvaluationofIn-ContextLearningImpr
晓理紫
·
2024-01-25 12:31
每日论文
机器人
人工智能
机器学习
深度学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)--机器人、强化学习
分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割==roboticagent==标题:WorkspaceOptimizationTechniquestoImprovePredictionofHuman
晓理紫
·
2024-01-25 12:26
每日论文
机器人
深度学习
人工智能
机器学习
[晓理紫]每日论文分享(有中文摘要,源码或项目地址)
专属领域论文订阅关注{晓理紫|小李子},每日更新论文,如感兴趣,请转发给有需要的同学,谢谢支持分类:大语言模型LLM视觉模型
VLM
扩散模型视觉导航具身智能,机器人强化学习开放词汇,检测分割[晓理紫]每日论文分享
晓理紫
·
2024-01-20 17:05
每日论文
深度学习
人工智能
上一页
1
2
3
4
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他