E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
文笔
论
文笔
记:Deep Algorithm Unrolling for Blind Image Deblurring
这是一篇CVPR2020的去模糊论文,主要是通过传统与深度相结合,将迭代次数变成神经网络的层数,使网络结构的网络结构更加具有解释性。主要贡献:DeepUnrollingforBlindImageDeblurring(DUBLID):提出一种可解释的神经网络结构叫做DUBLID,首先提出一种迭代算法,该算法被认为是梯度域中传统的广义全变分正则方法(generalizedTV-regularizeda
爱学习的小菜鸡
·
2025-03-18 09:55
论文笔记
去模糊
图像处理
神经网络
DeepSeek写的还是人写的?用AI识别AI的底层逻辑与未来博弈 ——从“真假美猴王”到人机共生的技术革命
引言:当AI学会“伪装人类”中国自研大模型DeepSeek其生成的网文被读者评价“
文笔
至少中上级”,甚至有文学教授惊叹“AI的诗句比我一辈子写的更惊艳”。
星落无尘
·
2025-03-17 13:18
人工智能
deep
learning
AIGC
A survey on instance segmentation: state of the art——论
文笔
记
摘要这篇论文综述了实例分割的研究进展,定义其为同时解决对象检测和语义分割的问题。论文讨论了实例分割的背景、面临的挑战、技术演变、常用数据集,并总结了相关领域的最新成果和未来研究方向。实例分割的发展从粗略的对象分类逐步演变为更精细的像素级别推理,广泛应用于自动驾驶、机器人等领域。论文为研究人员提供了对实例分割领域的全面了解和有价值的参考。一、简介第一部分“简介”主要介绍了实例分割的背景、定义和挑战。
栀子清茶
·
2025-03-17 06:54
1024程序员节
论文阅读
计算机视觉
人工智能
笔记
学习
AIGC视频生成模型:ByteDance的PixelDance模型
热门专栏机器学习机器学习笔记合集深度学习深度学习笔记合集优质专栏回顾:机器学习笔记深度学习笔记多模态论
文笔
记AIGC—图像文章目录热门专栏机器学习深度学习
好评笔记
·
2025-03-11 21:09
AIGC
音视频
机器学习
人工智能
深度学习
计算机视觉
transformer
LLM论
文笔
记 20: How to think step-by-step: A mechanistic understanding of chain-of-thought reasoning
Arxiv日期:2024.5.16机构:IIT关键词CoT本质LLM推理本质核心结论1.CoT推理的功能组件尽管不同阶段的推理任务具有不同的推理需求,模型内部的功能组件几乎是相同的(共享而非独享)不同的神经算法实际上是由类似归纳头(inductionheads)等机制组合而成2.注意力机制中的信息流动attentionheads在不同的模型层之间传递信息,特别是当它们涉及到本体论相关(ontolo
Zhouqi_Hua
·
2025-03-11 03:10
大模型论文阅读
人工智能
chatgpt
论文阅读
机器学习
深度学习
语言模型
[论
文笔
记] LLaMA3.1与Qwen2与Apple 技术报告中预训练方案对比
https://arxiv.org/pdf/2407.21075https://arxiv.org/pdf/2407.10671https://arxiv.org/pdf/2407.21783LLaMA3.1LLaMA3.1技术报告:https://ai.meta.com/blog/meta-llama-3-1/
心心喵
·
2025-03-10 01:02
论文笔记
论文阅读
深度学习
人工智能
LLM时代的小模型思考:《What is the Role of Small Models in the LLM Era: A Survey》论
文笔
记
论文:WhatistheRoleofSmallModelsintheLLMEra:ASurvey作者:LihuChenetal.单位:ImperialCollegeLondonAbstract问题:扩大模型大小会导致计算成本和能耗呈指数级增长,这使得这些模型对于学术研究人员和资源有限的企业来说不切实际小型模型(SMs)经常用于实际环境中,引发了关于小模型在LLM时代的作用的重要问题,且关注有限方法
FrancisQiu
·
2025-03-09 14:02
learning
nlp
paper
reading
论文阅读
零基础也能看懂的ChatGPT等大模型入门解析!大模型入门到精通,看这篇就够了!
本
文笔
者结合自己的理解,用通俗易懂的语言对复杂的概念进行了总结,与大家分享~什么是ChatGPT?
大模型微调实战
·
2025-03-05 12:27
chatgpt
百度
人工智能
大数据
wps
学习
大模型
【论
文笔
记】3DGS压缩相关工作2篇
1.背景介绍:NVS神经辐射场(NeRFs)引入了一种基于多层感知机(MLP)的新型隐式场景表示方法,它将体密度编码作为几何形状和方向辐射的代理量。渲染通过光线行进的方式来执行。这一解决方案为新视图合成(NVS)带来了前所未有的视觉质量,但代价是训练多层感知机的优化过程极为耗时,且渲染速度很慢。有几种方法加速了训练和渲染过程,通常是利用空间数据结构或者像哈希这样的编码方式,不过牺牲了视觉质量。近期
AndrewHZ
·
2025-03-05 06:11
深度学习新浪潮
论文阅读
3DGS
计算机图形学
算法
三维高斯飞溅
压缩方法
不得不知道的一些Java学习资料
一、Java书籍1.Java基础书名适读人群描述《HeadFirstJava(中文版)》Java初学者本书
文笔
十分轻松,采用对话的形式来讲解Java编程
念君思宁
·
2025-03-02 08:51
java要笑着学
java
jvm
servlet
[论
文笔
记] LLM大模型剪枝篇——2、剪枝总体方案
https://github.com/sramshetty/ShortGPT/tree/mainMy剪枝方案(暂定):剪枝目标:1.5B—>100~600M剪枝方法:层粒度剪枝1、基于BI分数选择P%的冗余层,P=60~802、对前N%冗余层,直接删除fulllayer。N=20(N:剪枝崩溃临界点,LLaMA2在45%,Mistral-7B在35%,Qwen在20%,Phi-2在25%)对后(P
心心喵
·
2025-03-01 04:25
论文笔记
剪枝
算法
机器学习
Farm3D- Learning Articulated 3D Animals by Distilling 2D Diffusion论
文笔
记
Farm3D:LearningArticulated3DAnimalsbyDistilling2DDiffusion1.Introduction最近的研究DreamFusion表明,可以通过text-imagegenerator提取高质量的三维模型,尽管该生成模型并未经过三维训练,但它仍然包含足够的信息以恢复三维形状。在本文中,展示了通过文本-图像生成模型可以获取更多信息,并获得关节模型化的三维对
Im Bug
·
2025-02-28 07:24
3d
论文阅读
论
文笔
记(七十二)Reward Centering(一)
RewardCentering(一)文章概括摘要1奖励中心化理论文章概括引用:@article{naik2024reward,title={RewardCentering},author={Naik,AbhishekandWan,YiandTomar,MananandSutton,RichardS},journal={arXivpreprintarXiv:2405.09999},year={202
墨绿色的摆渡人
·
2025-02-26 21:20
文章
论文阅读
论
文笔
记:Enhancing Sentence Embeddings in Generative Language Models
2024ICIC1INTRO对于文本嵌入,过去几年的相关研究主要集中在像BERT和RoBERTa这样的判别模型上。这些模型固有的语义空间各向异性,往往需要通过大量数据集进行微调,才能生成高质量的句子嵌入。——>需要较大的训练批次,这会消耗大量的计算资源一些前沿的工作将焦点转向了最近开发的生成模型,期望利用其先进的文本理解能力,直接对输入句子进行编码,而无需额外的反向传播由于句子表示和自回归语言建模
UQI-LIUWJ
·
2025-02-26 20:17
论文阅读
语言模型
人工智能
LLM论
文笔
记 15: Transformers Can Achieve Length Generalization But Not Robustly
Arxiv日期:2024.2.14机构:GoogleDeepMind/UniversityofToronto关键词长度泛化位置编码数据格式核心结论1.实验结论:十进制加法任务上的长度泛化最佳组合:FIRE位置编码随机化位置编码反向数据格式索引提示(indexhints,辅助定位)2.在适当的配置下,Transformer模型可以泛化到训练序列长度的2.5倍(例如从40位加法训练成功泛化到100位加
Zhouqi_Hua
·
2025-02-23 14:30
大模型论文阅读
论文阅读
语言模型
自然语言处理
深度学习
笔记
多模态论
文笔
记——DiT(Diffusion Transformer)
大家好,这里是好评笔记,公主号:Goodnote,专栏文章私信限时Free。本文详细介绍Transformer架构图像生成方面的应用,将Diffusion和Transformer结合起来的模型:DiT。目前DiT已经成为了AIGC时代的新宠儿,视频和图像生成不可缺少的一部分。文章目录论文定义架构与传统(U-Net)扩散模型区别架构噪声调度策略与传统扩散的相同输入图像/条件信息的Patch化(Pat
好评笔记
·
2025-02-23 04:19
多模态论文笔记
深度学习
transformer
DiT
人工智能
机器学习
aigc
stable
diffusion
LLM论
文笔
记 14: The Impact of Positional Encoding on Length Generalization in Transformers
Arxiv日期:2023.12.15机构:McGillUniversity/IBM/Facebook/ServiceNow关键词长度泛化位置编码CoT核心结论1.decoder-only中不显式使用位置编码(NoPE)可以提高长度泛化性能2.(证明了)decoder-onlytransformer如果NoPE同时具备绝对APE和RPE的能力3.暂存器(cot)对于长度泛化和任务相关,同时关注短期和
Zhouqi_Hua
·
2025-02-20 07:15
大模型论文阅读
论文阅读
人工智能
深度学习
笔记
语言模型
Python爬虫-猫眼电影的影院数据
本
文笔
者以猫眼电影为例子,获取猫眼的影院相关数据。废话不多说,具体实现思路和详细逻辑,笔者将在正文结合完整代码进行详细介绍。接下来,跟着笔者直接往下看正文详细内容。
写python的鑫哥
·
2025-02-20 01:31
爬虫案例1000讲
python
爬虫
猫眼
电影
电影院
数据
采集
LLM论
文笔
记 9: Neural Networks and the Chomsky Hierarchy
Arxiv日期:2022.9.29机构:GoogleDeepMind/Stanford关键词transformer架构原理乔姆斯基体系长度泛化核心结论1.虽然Transformer理论上具有图灵完备性,但在实践中能力受到位置不变性和有限记忆的限制2.Transformer在一些任务中表现较差,例如正则语言任务(如ParityCheck),表明其与Chomsky层级的对齐性不佳3.Transform
Zhouqi_Hua
·
2025-02-19 02:47
大模型论文阅读
论文阅读
人工智能
深度学习
笔记
语言模型
[论
文笔
记] Cost-Effective Hyperparameter Optimization for Large Language Model Generation 大型语言模型生成推理超参优化
成本效益高的大型语言模型生成推理的超参数优化https://openreview.net/pdf?id=DoGmh8A39OChiWang1,SusanXueqingLiu2,AhmedH.Awadallah11微软研究院,雷德蒙德2史蒂文斯理工学院摘要大型语言模型(LLMs)因其生成能力引发了广泛关注,催生了各种商业应用。使用这些模型的高成本驱使应用构建者在有限的推理预算下最大化生成的价值。本文
心心喵
·
2025-02-19 02:45
论文笔记
论文阅读
语言模型
人工智能
【deepseek】论
文笔
记--DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
DeepSeek-R1论文解析1.论文基本信息标题:DeepSeek-R1:IncentivizingReasoningCapabilityinLLMsviaReinforcementLearning作者:DeepSeek-AI团队(联系邮箱:
[email protected]
)发表时间与出处:2024年,AIME2024(人工智能与数学教育国际会议)关键词:ReinforcementLe
大表哥汽车人
·
2025-02-15 02:40
人工智能
大语言模型学习笔记
论文阅读
人工智能
deepseek
论
文笔
记《基于深度学习模型的药物-靶标结合亲和力预测》
基于深度学习模型的药物-靶标结合亲和力预测这是一篇二区的文章,算是一个综述,记录一下在阅读过程中遇到的问题。文章目录基于深度学习模型的药物-靶标结合亲和力预测前言一、蛋白质接触图谱二、为什么蛋白质图谱的准确性对DTA模型预测结果没有影响1.对这段话的解释2.关于Alphafold3三、随机配体与随机配体节点属性(配体一般指药物)1.什么是随机配体与配体节点属性四、关于深度学习模型对特征的自动学习过
I_dyllic
·
2025-02-14 03:57
深度学习
论文阅读
深度学习
人工智能
TC-LLaVA论
文笔
记
RoPE介绍理解LLM位置编码:RoPE|LinsightMotivation在基于视频的multimodallargelanguagemodel中,更好地利用视频提供的时序信息。MethodTemporal-AwareDualRoPE之前的RoPE公式:A(qTm,kFnVz)=Re[qTmkFnVzei(P(Tm)−P(FnVz))θ]A_{(q_{T_m},k_{F_nV_z})}=Re[q
0yumiwawa0
·
2025-02-10 03:27
计算机视觉
论文阅读
CNN-day5-经典神经网络LeNets5
经典神经网络-LeNets51998年YannLeCun等提出的第一个用于手写数字识别问题并产生实际商业(邮政行业)价值的卷积神经网络参考:论
文笔
记:Gradient-BasedLearningAppliedtoDocumentRecognition-CSDN
谢眠
·
2025-02-10 03:54
深度学习
深度学习
计算机视觉
人工智能
[论
文笔
记] llama3.2 蒸馏
参考链接:LLaMA3.2技术报告:GitHub-meta-llama/llama-stack:ModelcomponentsoftheLlamaStackAPIs[2407.21783]TheLlama3HerdofModelshttps://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/HuggingFac
心心喵
·
2025-02-10 03:24
论文笔记
论文阅读
【DeepSeek】Deepseek辅组编程-通过卫星轨道计算终端距离、相对速度和多普勒频移
【一文读懂】卫星轨道的轨道参数(六根数)和位置速度矢量转换及其在终端距离、相对速度和多普勒频移计算中的应用Matlab程序本
文笔
者将尝试通过deepseek-R1模型,编写Matlab程序,完成上文中的运算过程
瑶光守护者
·
2025-02-09 19:29
matlab
开发语言
Deepseek
卫星通信
[论
文笔
记] Deepseek技术报告
1.总体概述背景与目标报告聚焦于利用强化学习(RL)提升大型语言模型(LLMs)的推理能力,旨在探索在不依赖大规模监督微调(SFT)的情况下,模型如何自我进化并形成强大的推理能力。介绍了两代模型:DeepSeek-R1-Zero(纯RL,无SFT冷启动数据)和DeepSeek-R1(在RL前加入少量冷启动数据和多阶段训练流程,提升可读性及推理表现)。核心思路直接在基础模型上应用大规模强化学习,利用
心心喵
·
2025-02-06 22:53
论文笔记
论文阅读
人工智能
嵌入式秋招八股
文笔
记——C基础
C语言基础:1.Main函数的参数传递:Main函数的参数intargc,char*argv[],在很多Linux初学者阅读代码时都不知道是什么意思,其中intargc表示程序运行时命令行指令的个数,char*argv[]则存放指向各个参数的指针。例如:intmain(intargc,char**argv){for(inti=0;i
I_LOVE_STM32
·
2025-02-06 10:06
c语言
c++
数据结构
【论
文笔
记】基于图神经网络的多视角视觉重定位 GRNet CVPR 2020 论
文笔
记
GRNet:LearningMulti-viewCameraRelocalizationwithGraphNeuralNetworks驭势科技,北京大学机器感知重点实验室,北京长城航空测控技术研究所本文提出了一种使用多视角图像进行相机重定位的图神经网络。该网络可以使得不连续帧之间进行信息传递,相比于只能在相邻前后帧之间进行信息传递的序列输入和LTSM,其能捕获更多视角信息以进行重定位。因此LSTM
phy12321
·
2025-02-03 14:26
相机重定位
论
文笔
记(七十)DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning(二)
DeepSeek-R1:IncentivizingReasoningCapabilityinLLMsviaReinforcementLearning(二)文章概括摘要:2.方法2.3.DeepSeek-R1:冷启动强化学习2.3.1.冷启动2.3.2.面向推理的强化学习2.3.3.拒绝采样与监督微调2.3.4.面向所有场景的强化学习2.4.蒸馏:赋予小模型推理能力文章概括引用:@article{g
墨绿色的摆渡人
·
2025-01-31 07:01
文章
论文阅读
[论文总结] 深度学习在农业领域应用论
文笔
记14
当下,深度学习在农业领域的研究热度持续攀升,相关论文发表量呈现出迅猛增长的态势。但繁荣背后,质量却不尽人意。相当一部分论文内容空洞无物,缺乏能够落地转化的实际价值,“凑数”的痕迹十分明显。在农业信息化领域的顶刊《ComputersandElectronicsinAgriculture》中也大面积存在。众多论文在研究方法上存在严重缺陷,过于简单粗放。只是机械地把深度学习方法生硬地套用到特定农业问题中
落痕的寒假
·
2025-01-29 14:00
论文总结
深度学习
论文阅读
人工智能
[论
文笔
记] llama-factory 微调qwen2.5、llama3踩坑
一、bug1、pre-tokenize的时候,会OOM解决:在yaml文件中添加streaming参数#tokenizestreaming:Truemax_steps:10000https://github.com/hiyouga/LLaMA-Factory/blob/3a023bca2a502810a436cfba7708df164754ea62/src/llamafactory/hparams
心心喵
·
2025-01-28 20:14
论文笔记
深度学习
人工智能
[论
文笔
记] Megatron: mistral sliding window(ImportError: /workspace/venv/lib/python3.10/site-packag报错解决)
pyTorch—TransformerEngine1.2.1documentation论文:https://arxiv.org/pdf/2310.06825.pdftransformerengine的slidingwindow是用了flashatttention(新版本2以上,这里用的最新版本2.5.2)里对sliding_window的实现。所以不需要用transformerengine。直接用
心心喵
·
2025-01-28 00:46
论文笔记
论文阅读
selenium自动化测试01
文笔
不是很好,一些代码标注、注释可能不是很准确,望见谅。selenium自动化测试呢我用的是Java+maven,工具是IDEA。
Meng XY
·
2025-01-25 08:29
selenium自动化测试
selenium
自动化
测试工具
[论
文笔
记]自监督sketch-to-image生成:Self-Supervised Sketch-to-Image Synthesis
前言:2020年顶会同时出现了两篇很有意思的论文《Self-SupervisedSketch-to-ImageSynthesis》和《UnsupervisedSketch-to-PhotoSynthesis》,分别用自监督和无监督的方法做sketch-to-image生成,可以说是GANs在这一任务中表现的巅峰。目录主要贡献主要工作域转换模型TOMPS:边缘图、铅笔画图、草图sketch之间的区别
沉迷单车的追风少年
·
2025-01-23 23:10
深度学习-计算机视觉
sketch
深度学习
计算机视觉
【论
文笔
记】:DuBox: No-Prior Box Objection Detection via Residual Dual Scale Detectors
&Title:DuBox:No-PriorBoxObjectionDetectionviaResidualDualScaleDetectorsGithubaddrNone&Summary介绍了一种新的一阶段检测方法Dubox,它可以在没有先验框的情况下检测物体。设计的双尺度残差单元具有多尺度特性,使双尺度检测器不再独立运行。高层检测器学习低层检测器的残差。Dubox增强了启发式引导的能力,进一步使
Activewaste
·
2025-01-23 23:40
#
Anchor-free
#
特征层面
#
小目标检测
DuBox
anchor-free
2025美赛数学建模B题思路+模型+代码+论文
拙劣的
文笔
,也不知道
灿灿数模
·
2025-01-23 12:57
数学建模
【论
文笔
记】AutoML: A survey of the state-of-the-art(下篇)
目录4.ModelGeneration模型生成4.1SearchSpace搜索空间4.1.1Entire-structuredsearchspace基于整个架构的4.1.2Cell-basedsearchspace基于Cell的空间4.1.3Hierarchicalsearchspace层次化的空间4.1.3Morphism-basedsearchspace基于“态射”的空间4.2网络优化方法(搜
pip install USART
·
2025-01-22 18:31
学习笔记
论文阅读记录
论文阅读
算法
深度学习
论
文笔
记 U-Net: Convolutional Networks for Biomedical Image Segmentation
摘要:人们普遍认为,深度网络的成功训练需要数千个带注释的训练样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于大量使用数据增强来更有效地使用可用的注释样本。该体系结构包括用于捕获上下文的收缩路径和用于实现精确定位的对称扩展路径。我们表明,这样的网络可以从很少的图像进行端到端训练,并且在ISBI挑战中优于先前的最佳方法(滑动窗口卷积网络),用于分割电子显微堆栈中的神经元结构。使用在透射光显微
城南皮卡丘
·
2025-01-22 10:24
#
深度学习
caffe
人工智能
AIGC视频生成模型:Meta的Emu Video模型
优质专栏回顾:机器学习笔记深度学习笔记多模态论
文笔
记AIGC—图像文章目录论文摘要引言相关工作文本到图像(T2I)扩散模型视频生成/预测文本到视频(T2V)生成分解生成方法预备知识EmuVideo生成步骤图
好评笔记
·
2025-01-22 10:21
#
Meta
AIGC-视频
AIGC
机器学习
人工智能
transformer
论文阅读
深度学习
面试
AIGC视频生成国产之光:ByteDance的PixelDance模型
优质专栏回顾:机器学习笔记深度学习笔记多模态论
文笔
记AIGC—图像文章目录论文摘要引言输入训练和推理时的数据处理总结相关工作视频生成长视频生成方法模型架构
好评笔记
·
2025-01-21 08:48
AIGC-视频
补档
AIGC
计算机视觉
人工智能
深度学习
机器学习
论文阅读
面试
【YOLOv8改进】 YOLOv8 更换骨干网络之 GhostNet :通过低成本操作获得更多特征 (论
文笔
记+引入代码)
YOLO目标检测创新改进与实战案例专栏专栏目录:YOLO有效改进系列及项目实战目录包含卷积,主干注意力,检测头等创新机制以及各种目标检测分割项目实战案例专栏链接:YOLO基础解析+创新改进+实战案例介绍摘要在嵌入式设备上部署卷积神经网络(CNNs)由于有限的内存和计算资源而变得困难。特征图中的冗余是那些成功的CNNs的一个重要特性,但在神经架构设计中很少被研究。本文提出了一种新颖的Ghost模块,
YOLO大师
·
2025-01-20 22:47
YOLO
论文阅读
少了生活气息
写作不仅需要有阅读量,有
文笔
,生活阅历也是非常重要的
我爱大草莓
·
2024-09-16 09:02
日更挑战的第八天,阅读量依旧为零,你还会坚持日更么?
更多的是我希望自己有用文字记录生活的习惯,我希望生活和日子都可以在笔下重现,但我的
文笔
很差,逻辑性也不强。虽然日记总是无厘头的,随心所欲的,但我依旧希望随心之下还有着分明的线索,让看的人一眼就明白
长安的心事
·
2024-09-15 12:34
新的日更挑战
努力提升
文笔
!坚持看!
亲亲九儿叭
·
2024-09-15 08:35
写作课结束后,开始变现之旅的我总结了几点体会
当然这里面的功劳不是我的
文笔
多么出彩,而是文章话题抓住当下的痛点热点,以及借助小米老师的平台影响力发布。有些小伙
胖妞不爱动
·
2024-09-14 07:43
《鹈鹕之梦》剧本杀复盘/凶手/剧透/真相/答案/攻略
﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎﹎1、剧本杀《鹈鹕之梦》角色介绍这是一个颠覆传统认知的情感还原立意本且剧本的呈现方式也是非常创新的,对于老玩家来说,整个眼前一亮体验角色:莲首先夸夸作者的
文笔
VX搜_小燕子复盘
·
2024-09-14 04:33
不可不知的写作底层逻辑—助你写作步步高升
“什么是
文笔
?怎样提升自己的
文笔
水平?”“好的
文笔
需要具备哪些能力?”……当这些以及其它类似的问题向我迎面袭来的时候,我完全招架不住,毫无任何抵御能力。
有花无叶_彼岸花
·
2024-09-13 21:09
写一本书,情节和
文笔
哪个更重要?
既然是一本书,不是一篇文章,那么情节和
文笔
的同等比重是毋庸置疑的。如果说作者的
文笔
是一部作品能够吸引读者的前提,那么情节就是一部作品能引发读者兴趣的关键。
仨美
·
2024-09-13 18:06
胡诌两句——《留德十年》有感
不少人评价季老作品的
文笔
,作品的艺术性,众说纷纭,但都称被其吸引,获益匪浅之类,我读完后的感受却在这些大师们坎坷不易的人生经历,哪一个不是
卓玛曲措
·
2024-09-13 15:05
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他