E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
强化学习文献阅读
Pytorch学习记录-基于CRF+BiLSTM的CGED
Pytorch学习记录-GEC语法纠错03五月第一周要结束了,接下来的三个月主要是
文献阅读
,准备8、9月的开题报告,技术类的文献集中在GEC和Textmaching的应用方面,读完之后找demo复现,然后应用
我的昵称违规了
·
2024-01-10 20:06
李元豪成长会:学习新技能的策略2021-04-23
根据认知心理学,以下是三种最好的学习策略:分散练习——把你的学习过程分成小的时间段来进行,而不是死记硬背测试
强化学习
——通过具有挑战性的记忆检索考试来训练你的大脑和记忆解释性提问——问自己一些辅助自己深入研究的问题
李元豪成长会
·
2024-01-10 16:25
强化学习
求解TSP(二):Qlearning求解旅行商问题TSP(提供Python代码)
一、Qlearning简介Q-learning是一种
强化学习
算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。
IT猿手
·
2024-01-10 15:56
TSP
Qlearning
python
python
开发语言
优化算法
进化计算
强化学习
tsp
深度强化学习
TSP(Python):Qlearning求解旅行商问题TSP(提供Python代码)
一、Qlearning简介Q-learning是一种
强化学习
算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。
IT猿手
·
2024-01-10 15:55
Qlearning
python
TSP
python
开发语言
优化算法
强化学习
深度强化学习
tsp
强化学习
求解TSP:Qlearning求解旅行商问题(Traveling salesman problem, TSP)提供Python代码
一、Qlearning简介Q-learning是一种
强化学习
算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。
IT猿手
·
2024-01-10 15:25
python
Qlearning
TSP
python
开发语言
强化学习
深度强化学习
Qlearning
强化学习
求解TSP(一):Qlearning求解旅行商问题TSP(提供Python代码)
一、Qlearning简介Q-learning是一种
强化学习
算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。
IT猿手
·
2024-01-10 15:49
Qlearning
python
TSP
python
开发语言
优化算法
tsp
强化学习
2019-6-16晨间日记
叫我起床的不是闹钟是梦想年度目标及关键点:下周写出
文献阅读
报告和开题报告,做好思维导图本月重要成果:参加了第二届强网论坛,开阔了视野,了解了目前网络世界的最新动态!
风雨兼程_007
·
2024-01-10 14:20
强化学习
6——动态规划置策略迭代算法,以悬崖漫步环境为例
策略迭代算法通过策略评估与策略提升不断循环交替,得到最优策略。策略评估固定策略π\piπ不变,估计状态价值函数V一个策略的状态价值函数,在马尔可夫决策过程中提到过:Vπ(s)=∑a∈Aπ(a∣s)(r(s,a)+γ∑s′∈Sp(s′∣s,a)Vπ(s′))V^{\pi}(s)=\sum_{a\inA}\pi(a|s)\left(r(s,a)+\gamma\sum_{s'\inS}p(s'|s,a)
beiketaoerge
·
2024-01-10 07:15
强化学习
算法
动态规划
人工智能
强化学习
在生成式预训练语言模型中的研究现状简单调研
1.绪论本文旨在深入探讨
强化学习
在生成式预训练语言模型中的应用,特别是在对齐优化、提示词优化和经验记忆增强提示词等方面的具体实践。
一条独龙
·
2024-01-10 01:25
机器学习
语言模型
人工智能
机器学习
强化学习
Double DQN方法玩雅达利Breakout游戏完整实现代码与评估pytorch
1.实验环境1.1硬件配置处理器:2*AMDEPYC7773X64-Core内存:1.5TB显卡:8*NVIDIAGeForceRTX309024GB1.2工具环境Python:3.10.12Anaconda:23.7.4系统:Ubuntu22.04.3LTS(GNU/Linux5.15.0-91-genericx86_64)IDE:VSCode1.85.1gym:0.26.2Pytorch:2.
一条独龙
·
2024-01-10 01:22
游戏
python
人工智能
2019-7-10晨间日记
:0530就寝:2230天气:小雨心情:好纪念日:见奶奶的好日子任务清单昨日完成的任务,最重要的三件事:去山西见奶奶请假顺利改进:适时调整一下身体,该休息就休息习惯养成:早睡早起身体好周目标·完成进度
文献阅读
顺利过关开题报告提前写好学习
风雨兼程_007
·
2024-01-10 00:30
机器学习简答题
监督学习、无监督学习、半监督学习、
强化学习
3、请简述什么是监督学习?什么是无监督学习?有监督学习是指训练数据中包含了输入和输出的标签信息,目标是通过已知输入和输出来预测新数据的标签。
你若盛开,清风自来!
·
2024-01-09 23:08
机器学习
人工智能
强化学习
9——免模型预测算法介绍(蒙特卡洛方法和时步差分方法)
对于大部分情况来说,环境是未知的,也就是说状态转移概率未知,对于这种情况的算法称为免模型预测算法。免模型算法与环境不断交互学习,但是需要大量的运算。蒙特卡洛方法蒙特卡罗方法通过重复随机抽选,之后运用统计概率此方法来从抽样结果中归纳我们想要得到的数值估计。如下图所示,圆面积与正方形面积的比等于落入圆内的点与落入正方形的内的点的比一个状态的价值是它的期望回报,可以采样多条序列,计算从这个状态出发的回报
beiketaoerge
·
2024-01-09 22:30
强化学习
算法
蒙特卡洛
强化学习
时步差分
强化学习
3——马尔可夫性质、马尔科夫决策、状态转移矩阵和回报与策略(上)
如果要用
强化学习
去解决一个实际问题,第一步要做的事情就是把这个实际问题抽象为一个马尔可夫决策过程。马尔可夫决策过程描述马尔可夫决策过程以智能体在与环境交互的过程中,学习的过程。
beiketaoerge
·
2024-01-09 22:59
强化学习
python
深度学习
人工智能
强化学习
1——多臂老虎机(上)
在
强化学习
中,关注智能体在与环境的交互中学习,成为试错型学习。多臂老虎机不存在状态信息,只有动作和奖励,是最简单的“和环境交互中学习“。
beiketaoerge
·
2024-01-09 22:29
强化学习
强化学习
10——免模型控制Q-learning算法
Q-learning算法主要思路由于Vπ(s)=∑a∈Aπ(a∣s)Qπ(s,a)V_\pi(s)=\sum_{a\inA}\pi(a\mids)Q_\pi(s,a)Vπ(s)=∑a∈Aπ(a∣s)Qπ(s,a),当我们直接预测动作价值函数,在决策中选择Q值最大即动作价值最大的动作,则可以使策略和动作价值函数同时最优,那么由上述公式可得,状态价值函数也是最优的。Q(st,at)←Q(st,at)+
beiketaoerge
·
2024-01-09 22:58
强化学习
算法
python
强化学习
ChatGPT和Web3:人工智能如何帮助您建立和发展您的 Web3 公司
该机器人建立在OpenAI的GPT-3人工智能家族上,并通过监督学习和
强化学习
技术进行了优化。与ChatGPT机器人聊天时,你会感觉自己在与一个懂得一切并以非常教育性的方式回答的朋友交谈。
zgsdzczh
·
2024-01-09 01:09
openai
区块链
人工智能
chatgpt
web3
MATLAB
强化学习
工具箱(四)创建水箱
强化学习
模型
创建水箱
强化学习
模型问题描述行动与观测奖励信号终止信号创建环境对象重置函数本示例说明如何创建一个水箱
强化学习
Simulink®环境,该环境包含一个RLAgent块来代替用于水箱中水位的控制器。
王莽v2
·
2024-01-09 01:46
强化学习
强化学习
matlab
MATLAB
强化学习
工具箱(十一)训练DDPG智能体控制飞行机器人
飞行机器人模型此示例的
强化学习
环境是飞行机器人,其初始条件围绕半径为15m的圆环随机化。机器人的方向也是随机的。机器人具有安装在主体侧面的两个推进器,用于推动和操纵机器人。训练的目标是将机器
王莽v2
·
2024-01-09 01:46
强化学习
强化学习
matlab
MATLAB
强化学习
实战(一)
强化学习
智能体训练总览
强化学习
智能体训练总览简介训练算法情节管理器保存候选智能体并行计算GPU加速验证训练后的策略环境验证简介创建环境和
强化学习
智能体后,您可以使用训练功能在环境中训练智能体。
王莽v2
·
2024-01-09 01:46
强化学习
强化学习
matlab
MATLAB
强化学习
工具箱(三)-创建Simulink环境并训练智能体
使用
强化学习
深度确定性策略梯度(DDPG)智能体。水箱模型此示例的原始模型是水箱模型。目的是控制水箱中的水位。通过进行以下更改来修改原始模型:删除PID控制器。插入RLAgent块。
王莽v2
·
2024-01-09 01:16
强化学习
强化学习
matlab
AI人工智能学习路线图
学习人工智能的基本算法,包括分类、回归、聚类、
强化学习
等。了解常用的人工智能框架,如TensorFlow、PyTorch等。实践并练习,尝试自己解决一些练习题或者实际问题。学
AI论道
·
2024-01-09 01:43
人工智能
学习
强化学习
的数学原理学习笔记 - 策略梯度(Policy Gradient)
文章目录概览:RL方法分类策略梯度(PolicyGradient)BasicPolicyGradient目标函数1:平均状态值目标函数2:平均单步奖励PG梯度计算REINFORCE本系列文章介绍
强化学习
基础知识与经典算法原理
Green Lv
·
2024-01-09 00:24
机器学习
笔记
强化学习
机器学习
人工智能
深度学习
强化学习
的数学原理学习笔记 - 基于模型(Model-based)
方法分类基于模型(Model-Based)值迭代(ValueIteration)策略迭代(PolicyIteration)截断策略迭代(TruncatedPolicyIteration)本系列文章介绍
强化学习
基础知识与经典算法原理
Green Lv
·
2024-01-09 00:20
机器学习
笔记
强化学习
机器学习
人工智能
深度学习
【伤寒
强化学习
训练】打卡第八十三天 一期90天
8.5.1小建中汤与黄芪建中汤小建中汤,基本上是因为有饴糖,也就是麦芽糖,才称之为建中汤的。主证没有发干发渴的感觉的时候,芍药减少一点量是没有关系。因为现在人的肠胃有时候比较冷,芍药用多了会拉肚子;基本上乘以0.1的剂量,芍药放足桂枝的两倍没关系。但是觉得自己很需要大补,而用0.3的剂量的时候,芍药的用量就要看一下自己的体质;张仲景说一个容易拉肚子的人,栀子、芍药、大黄类的药都要放少一点,一般抓主
A卐炏澬焚
·
2024-01-08 18:09
强化学习
的数学原理学习笔记 - 值函数近似(Value Function Approximation)
文章目录概览:RL方法分类值函数近似(Valuefunctionapproximation)Basicidea目标函数(objectivefunction)优化算法(optimizationalgorithm)Sarsa/Q-learningwithfunctionapproximationSarsawithfunctionapproximationQ-learningwithfunctionap
Green Lv
·
2024-01-08 15:42
机器学习
笔记
强化学习
人工智能
深度学习
机器学习
强化学习
的数学原理学习笔记 - Actor-Critic
Advantageactor-critic)Off-policyAC重要性采样(ImportanceSampling)Off-policyPGOff-policyACDPG(DeterministicAC)本系列文章介绍
强化学习
基础知识与经典算法原理
Green Lv
·
2024-01-08 15:42
机器学习
笔记
强化学习
机器学习
人工智能
深度学习
强化学习
的数学原理学习笔记 - 蒙特卡洛方法(Monte Carlo)
文章目录概览:RL方法分类蒙特卡洛方法(MonteCarlo,MC)MCBasicMCExploringStartsMCε-Greedy本系列文章介绍
强化学习
基础知识与经典算法原理,大部分内容来自西湖大学赵世钰老师的
强化学习
的数学原理课程
Green Lv
·
2024-01-08 15:12
机器学习
笔记
强化学习
机器学习
人工智能
深度学习
蒙特卡洛
强化学习
的数学原理学习笔记 - 时序差分学习(Temporal Difference)
文章目录概览:RL方法分类时序差分学习(TemporalDifference,TD)TDforstatevaluesBasicTDTDvs.MCSarsa(TDforactionvalues)BasicSarsa变体1:ExpectedSarsa变体2:n-stepSarsaQ-learing(TDforoptimalactionvalues)TD算法汇总*随机近似(SA)&随机梯度下降(SGD)
Green Lv
·
2024-01-08 15:40
机器学习
笔记
强化学习
人工智能
机器学习
深度学习
时序差分
2023.12.30周报
目录摘要ABSTRACT一、
文献阅读
1、题目2、摘要3、创新点4、文章解读1、Introduction2、时间序列的季节趋势表征3、季节趋势对比学习框架4、实验5、结论二、ARIMA一、ARIMA模型的基本思想二
Nyctophiliaa
·
2024-01-08 14:35
人工智能
深度学习
2023.12.17周报
目录摘要ABSTRACT一、
文献阅读
1、题目2、摘要3、网络架构4、文献解读一、Introduction二、创新点三、实验过程四、结论二、Self-Attention一、如何运用自注意力机制?
Nyctophiliaa
·
2024-01-08 14:34
人工智能
2024.1.7周报
目录摘要ABSTRACT一、
文献阅读
1、题目2、摘要3、模型架构4、文献解读一、Introduction二、创新点三、实验过程四、结论二、深度学习知识一、从Encoder-Decoder框架中理解为什么要有
Nyctophiliaa
·
2024-01-08 14:03
深度学习
人工智能
机器学习
机器学习周刊 第4期:动手实战人工智能、计算机科学热门论文、免费的基于ChatGPT API的安卓端语音助手、每日数学、检索增强 (RAG) 生成技术综述
目录:1、动手实战人工智能Hands-onAl2、huggingface的NLP、深度
强化学习
、语音课3、AwesomeJupyter4、计算机科学热门论文5、LLM开发者必读论文:检索增强(RAG)生成技术综述
机器学习算法与Python实战
·
2024-01-08 13:50
人工智能
机器学习
chatgpt
人工智能知识点总结
人工智能涵盖很多子领域,分别是机器学习,深度学习,自然语言处理,计算机视觉,
强化学习
等。机器学习:是如何设计一个模型和算法来提取数据的模式,从而改善性能进行自主决策。
一只发呆的猪
·
2024-01-08 11:52
人工智能
人工智能
1/7文章
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录摘要Abstract
文献阅读
:具有运动模糊的大规模场景的混合神经绘制1、研究背景2、方法提出3、相关方法3.1、混合神经渲染模型(
qq_43314576
·
2024-01-08 10:54
计算机视觉
人工智能
深度学习
论文阅读-基于深度
强化学习
的方法解决多智能体防御和攻击问题
论文原题目:Adeepreinforcementlearning-basedmethodappliedforsolvingmulti-agentdefenseandattackproblems论文链接:https://www.sciencedirect.com/science/article/pii/S0957417421003377论文信息:目录1引言2问题制定与环境建模2.1多智能体防御与攻击
天寒心亦热
·
2024-01-08 08:54
强化学习
多智能体强化学习
攻击和防御
论文阅读
多智能体强化学习
MADDPG
DDPG
攻击和防御
文献阅读
- JADE:具有可选外部存档的自适应差分进化
文章目录标题摘要关键字结论研究背景I.INTRODUCTION常用基础理论知识II.BASICOPERATIONSOFDEIII.ADAPTIVEDEALGORITHMSA.DESAPB.FADEC.SaDED.jDE研究内容、成果IV.JADEA.DE/Current-to-pbestB.ParameterAdaptationC.ExplanationsoftheParameterAdaptat
太极生两鱼
·
2024-01-08 07:57
文献阅读
算法
机器学习
深度学习
【
文献阅读
】A random-effects Wiener degradation model based on accelerated failuretime
一、引言维纳过程是近几十年来最流行的退化模型之一[5,8,20,26,30]。用表示元器件质量特性的退化数据,例如电池的容量,以下维纳过程经常被用来建模其随时间的演变:(1)在这个基本的维纳过程模型中,是标准的布朗运动,漂移速率对应于退化过程的平均速率,扩散系数量化了过程波动的幅度。基本的维纳过程模型假设一个种群中的所有单位具有相同的漂移率v和扩散系数σ。然而,这种假设在许多实际应用中都存在一定的
一碗姜汤
·
2024-01-08 06:23
毕业设计
概率论
算法
文献阅读
:Sparse Low-rank Adaptation of Pre-trained Language Models
文献阅读
:SparseLow-rankAdaptationofPre-trainedLanguageModels1.文章简介2.具体方法介绍1.SoRA具体结构2.阈值选取考察3.实验&结论1.基础实验
Espresso Macchiato
·
2024-01-08 06:12
文献阅读
SoRA
LoRA
LLM
大模型finetune
效率优化
2023/11/5周报
文章目录摘要Abstract
文献阅读
题目创新点方法框架数据收集和实验设置实验结果Conclusion深度学习Self-attentionSelf-attention的优势Self-attention的原理
user_s1
·
2024-01-08 06:37
逻辑回归
机器学习
人工智能
lstm
学习周报2.26
文章目录前言
文献阅读
摘要方法结果深度学习Encoder-Decoder(编码-解码)信息丢失的问题Attention机制总结前言Thisweek,Ireadanarticleaboutdailystreamflowprediction.Thisstudyshowstheresultsofanin-depthcomparisonbetweentwodifferentdailystreamflowpr
hehehe2022
·
2024-01-08 06:36
学习
深度学习
人工智能
第三十七周周报:
文献阅读
+掩码、多头注意力机制+位置编码
目录摘要Abstract
文献阅读
:基于注意力的LSTM大地震预报网络现有问题提出方法基于注意力的LSTM网络研究实验实验目的数据集评估指标数据预处理和特征提取结果讨论MaskedSelf-Attention
m0_66015895
·
2024-01-08 06:35
人工智能
机器学习周记(第十周:RNN续)2023.9.25~2023.10.1
目录摘要ABSTRACT1
文献阅读
2Theerrorsurfaceisrough2.1HelpfulTechniques3DifferentType3.1Manytoone3.2Manytomany3.3Manytomany
Slender2001
·
2024-01-08 06:03
机器学习
rnn
深度学习
神经网络
人工智能
机器学习周报第27周
目录摘要Abstract一、
文献阅读
摘要本周阅读了一篇混沌时间序列预测的论文,论文模型主要使用的是时间卷积网络(TemporalConvolutionalNetwork,TCN)、LSTM以及GRU。
Ramos_zl
·
2024-01-08 06:32
机器学习
深度学习
人工智能
第三十八周周报:
文献阅读
+BILSTM+GRU+Seq2seq
目录摘要Abstract
文献阅读
:耦合时间和非时间序列模型模拟城市洪涝区洪水深度现有问题提出方法创新点XGBoost和LSTM耦合模型XGBoost算法编辑LSTM(长短期记忆网络)耦合模型研究实验数据集评估指标研究目的洪水深度预测实验结果
m0_66015895
·
2024-01-08 06:01
lstm
人工智能
rnn
Flappy Bird QDN PyTorch博客 - 代码解读
QDN算法是一种
强化学习
算法,特别适用
OverlordDuke
·
2024-01-08 06:10
神经网络
深度学习
强化学习
pytorch
人工智能
强化学习
QDN
第一章 绪论1
1.1这是一本什么书1.2
强化学习
可以解决什么问题一
强化学习
所能解决的问题
强化学习
所能解决的问题:智能决策问题强化更准确的说是:序贯决策问题何为序贯决策问题:需要连续不断地做出决策,才能实现最终⽬标的问题
食蓼少年
·
2024-01-08 05:18
深度
强化学习
落地方法论(2)—— 需求分析篇
强化学习
,无论前面带不带“深度”二字,也同样有其鲜明的优势和局限性,务必要具体问题具体分析。
WYJJYN
·
2024-01-08 04:12
精益软件开发的七大原则
精益软件开发的七大原则:消除浪费(EleminateWaste):
强化学习
,鼓励改进(FocusonLearning):注重质量(BuildQualityIn);推迟承诺(Defercommitment
终有zy
·
2024-01-07 10:08
敏捷开发
2020-3-28晨间日记
今天是什么日子起床:7:30就寝:11:00天气:阴天心情:紧张到开心,但没有变形纪念日:组会取消的日子任务清单昨日完成的任务,最重要的三件事:
文献阅读
,软件学习,ppt制作改进:继续推进科研工作习惯养成
LittleMosley
·
2024-01-07 09:22
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他