E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习基础
深度学习基础
: BP神经网络训练MNIST数据集
BP神经网络训练MNIST数据集不用任何深度学习框架,一起写一个神经网络训练MNIST数据集本文试图让您通过手写一个简单的demo来讨论1.导包importnumpyasnpimportstructimportrandomimportmatplotlib.pyplotaspltimportpandasaspdimportmath2.加载label,images由于下载的数据集是二进制文件,这里用s
狗蛋Predy
·
2022-12-27 16:22
python
深度学习
第二次作业:
深度学习基础
#关于推荐的书籍虽然西瓜书的名气最大,但是这本书我实际看下来不适合做教材,另一本李航的书更好些,至少每个算法都会给你例子,但是里面的数学定义太复杂,得配合视频看下去,b站上的视频唯一有价值的就是吴恩达的视频,然而最新版本的ml视频需要搭配实验,course上的课我也去找了找,要花钱······。#实际应用方面的话确实现在很多地方都需要这些,目前我学过的几种算法都是分类问题,具体就是使用朴素贝叶斯,
ekkoalex
·
2022-12-27 14:54
人工智能
算法
机器学习
深度学习基础
之线性回归
深度学习基础
之线性回归【代码】1.线性回归的基本要素以⼀个简单的房屋价格预测作为例⼦来解释线性回归的基本要素。假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。
DeeGLMath
·
2022-12-26 08:53
深度学习
深度学习
线性回归
机器学习
强化学习笔记(初级篇)
关于机器学习,之前在校内上过
深度学习基础
课程,对于深度学习有一个基础性的了解,由于是选修课,没有做大量作业,对于知识的理解一般化。目前做的方向是基于强化学习的路径规划,所以要先把强化学习的基础过一遍。
cp3111
·
2022-12-26 08:53
机器学习
人工智能
复现KGAT: Knowledge Graph Attention Network for Recommendation(五)
上一个看过代码的是NCF,那个难度简直没法和这个相提并论,准确的说,有点机器学习、
深度学习基础
的那个代码看起来分分钟的事。这篇。。。对我这个新手很不友好啊。。。
Lalune21
·
2022-12-25 18:28
深度学习基础
(一)
深度学习理论知识文章目录深度学习理论知识写在前面卷积神经网络发展机器学习分类器KNN线性分类器优化方法图像的特征介绍神经网络梯度反向传播——是链式法则的递归调用卷积神经网络卷积神经网络的历史——一些比较重要的网络卷积神经网络训练卷积神经网络激活函数数据处理训练优化:[优化方法介绍](https://www.cnblogs.com/guoyaohua/p/8542554.html)提高泛化能力,缓解
用户昵称还已存在
·
2022-12-25 17:26
没钱买显卡
深度学习
人工智能
TensorFlow入门(1)
深度学习基础
知识以及tf.keras
目录目录多层感知器MLP隐藏层的选择Dense层Activation层Dropout层Flatten层activation激活函数:relusigmoidTanhleakyrelu神经网络的拟合能力参数选择原则:梯度下降法——多层感知器的优化5、学习速率(人为规定的变化速率)7、反向传播算法(计算loss)——一种高效计算数据流图中梯度的技术8、compile()函数将一个字符串编译为字节代码。常
Kristen+U
·
2022-12-24 16:21
深度学习
神经网络
算法
tensorflow
python
【
深度学习基础
】基于PyTorch实现Inception-v4, Inception-ResNet-v1, Inception-ResNet-v2亲身实践
【
深度学习基础
】基于PyTorch实现Inception-v4,Inception-ResNet-v1,Inception-ResNet-v2亲身实践1论文关键信息1.1Inception-v4网络整体架构
Cai Yichao
·
2022-12-24 16:19
深度学习
深度学习
卷积
神经网络
深度学习基础
知识(激活函数,损失函数)
深度学习基础
知识激活函数:作用是在线性变换后加入线性变换。非线性的激活函数可以使神经网络逼近复杂函数。如果没有激活函数,多层神经网络就跟单层神经网络没有区别。
Ferbc
·
2022-12-24 01:51
深度学习
深度学习
机器学习
人工智能
深度学习基础
网络_深度学习网络的基础
深度学习基础
网络Un-crumplingpaperballsiswhatmachinelearningisallabout,itseekstofindneatrepresentationsforcomplex
yuan xiong
·
2022-12-23 10:49
python
深度学习
人工智能
机器学习
算法
深度学习基础
网络整理----AlexNet
核函数是将低维特征映射成为高维特征的方法;全连接层:全连接层的所有神经元都有权重进行连接卷积层:又称卷积核|滤波器|内核,用于对输入的图像结构进行特征提取通道:指滤波器的个数,输出的通道层数只与当前滤波器的通道个数有关步长:滤波器每次移动的步长池化:池化(pooling)的本质就是下采样。Pooling对于输入的FeatureMap,选择某种方式对其进行降维压缩,以加快运算速度,局部连接:卷积核的
czy_0912
·
2022-12-23 10:15
目标检测
深度学习
网络
计算机视觉
【人工智能】深度学习专项课程精炼图笔记!必备收藏
本文为人工智能学习笔记记录,参考机器之心,AI有道,Google资源目录
深度学习基础
1.深度学习基本概念2.logistic回归3.浅层网络的特点4.深度神经网络的特点5.偏差与方差6.正则化7.最优化
SophiaCV
·
2022-12-23 09:03
人工智能
深度学习
记录一次使用卷积神经网络进行图片二分类的实战
(这里就假定读者都是有一定的
深度学习基础
了,一些简单的概念,例如k折交叉验证,就不再具体阐述了)参考资料采用的是沐神的《动手深度学习》,谷歌
qzero233
·
2022-12-22 10:35
深度学习
cnn
深度学习
分类
【
深度学习基础
】01激活函数:Sigmoid、Tanh、ReLU、Softmax系列及对应的变体
目录Sigmoid系列1.优点:输出[0,1]、平滑易于求导2.缺点:计算量大、梯度消失、不易收敛3.Sigmoid变体:HardSigmoid、Swish、Tanh系列1.优点:缓解梯度消失和不易收敛问题2.缺陷:运算复杂、仍存在梯度消失3.Tanh变体:HardTanh、TanhShrinkReLU系列1.优势:收敛速度快、避免梯度消失、稀疏性2.缺点:收敛效果差、梯度爆炸、神经元坏死3.Re
TianleiShi
·
2022-12-21 08:40
深度学习图像处理
深度学习基础
(1):线性回归
线性回归(linearregression)1.概念:线性回归用于拟合标签与各个特征成线性关系的训练数据集,求出各个特征的权重(w1,w2)和偏差(b),对给定新的特征实现标签的预测2.表达式:y=xw+b,w为加权组成的列向量,x为行代表样本,列代表特征的二维矩阵,b代表偏差(offset)3.定义损失函数l=(xw+b-y)**2/2(平方损失)4.算法:小批量随机梯度下降。定义一个批量大小(
hinstru
·
2022-12-21 07:47
线性回归
深度学习
深度学习基础
--传统机器学习与深度学习的区别
传统机器学习与深度学习的区别 1)传统机器学习:利用特征工程(featureengineering),人为对数据进行提炼清洗 2)深度学习:利用表示学习(representationlearning),机器学习模型自身对数据进行提炼,不需要选择特征、压缩维度、转换格式等对数据的处理。深度学习对比传统方法来说,最大的优势是自动特征的提取 现实中遇到的绝大部分机器学习问题,基于原始特征(Inpu
whitenightwu
·
2022-12-21 07:39
深度学习基础
NVIDIA
深度学习基础
-理论与实践入门课程笔记及测验参考代码
1.使用MNIST数据集进行图像分类1.1MNIST数据集在深度学习的历史当中,对MNIST数据集里的70000张手写体数字的图像进行0到9的正确分类是一个重大的进展。如今,这个问题被认为是微不足道的,但是使用MNIST进行图像分类已经成为深度学习的一个HelloWorld练习。以下是MNIST数据集中包含的40张图像:1.2训练和测试数据及其标签在处理用于深度学习的图像时,我们既需要图像本身(通
柃歌
·
2022-12-20 18:08
Artificial
Intelligence
深度学习
tensorflow
人工智能
神经网络
keras
深度学习基础
知识每日更 upupup
深度学习基础
知识点总结提示:菜鸟入门日记,若总结有错误,各路大佬多多指教!
chong墩儿
·
2022-12-20 12:06
深度学习
知识点
pytorch
深度学习
python
深度学习基础
汇总
文章目录神经网络模型的发展历程前馈神经网络激活函数反向传播算法模型的训练数据归一化参数初始化损失函数模型优化数据增广/模型泛化卷积神经网络卷积核激活层和池化层循环神经网络RNNBPTT(随时间反向传播)LSTMGRU迁移学习神经网络模型的发展历程MP模型是最早的神经网络模型,描述的是一个神经元的工作机制。根据神经元的结构可知:神经元是一个多输入单输出的信息处理单元,并对信息的处理是非线性的。在这个
右边是我女神
·
2022-12-20 07:38
深度学习基础
深度学习
人工智能
神经网络
深度学习基础
知识(一)--- 权重初始化
1、为什么需要权重初始化?①为了使神经网络在合理的时间内收敛②为了尽量避免在深度神经网络的正向(前向)传播过程中层激活函数的输出梯度出现爆炸或消失。2、如何进行初始化?①如果将每个隐藏单元的参数都初始化为0那么在正向传播时每个隐藏单元将根据相同的输入计算出相同的值,并传递至输出层。在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使用基于梯度的优化算法迭代后值依然相等。这样所有隐层的单元
Teeyohuang
·
2022-12-20 07:30
深度学习理论
权重初始化
深度学习
深度学习基础
知识---梯度弥散 梯度爆炸
目录1梯度弥散、梯度爆炸的成因2解决方式2.1.pretrain+finetune2.2梯度裁剪2.3权重正则化2.5BatchNormalization正则化2.6残差结构shortcut2.7LSTM1梯度弥散、梯度爆炸的成因神经网络的层(主要是隐藏层)越多,对输入特征抽象层次越高。因为在神经网络中,后一层神经元的输入是前一层输出的加权和,前一层的特征在后一层就被抽象出来了,学习的过程其实就是
thequitesunshine007
·
2022-12-20 07:29
深度学习基础
深度学习
神经网络
深度学习基础
知识——上采样
上采样,转置卷积,上池化上采样(unsampling)GAP上采样(unsampling)GAPGlobalaveragepooling就是平均所有的featuremap,然后将平均后的featuremap喂给softmax进行分类。GAP直接从featuremap的通道信息下手,比如我们现在的分类有N种,那么最后一层的卷积输出的featuremap就只有N个通道,然后对这个featuremap进
黑洞是不黑
·
2022-12-20 04:36
深度学习
人工智能
【一起入门NLP】中科院自然语言处理期末考试*总复习*:考前押题+考后题目回忆
明天期末考试,胡玥老师亲自出题,整理一下我觉得最最最重点的地方押押题目录题型第三章:
深度学习基础
第四章:语言模型+词向量第五章:注意力机制第六章:NLP基础任务第七章:预训练语言模型设计题实验复习2021
vector<>
·
2022-12-19 20:04
#
自然语言处理
自然语言处理
0x00000006 MMClassification 源码阅读 01 总览
c.回顾
深度学习基础
b
0xCCCC
·
2022-12-19 19:18
源码阅读
python
计算机视觉
[
深度学习基础
]2.pycharm联合annaconda生成虚拟环境测试yoloV7
“戏过曼巴晃过神”1.环境说明2.yoloV7的准备和说明2.1yoloV7源码2.2权重文件3.anaconda生成配套虚拟环境4.Pycharm联合conda虚拟环境1.环境说明承接上一篇,我们的软件如下(我拿笔记本跑):python:3.9pycharm:22.3GPU:GTX3060CUDA:11.4为什么进行此说明,原因是虚拟环境安装相关包的时候,pytorch等需要按需更改2.yolo
终问鼎
·
2022-12-18 14:08
#
深度学习
深度学习
python
pycharm
bash
conda
深度学习精炼图笔记
从
深度学习基础
、卷积网络和循环网络三个方面介绍该笔记.一、
深度学习基础
1.深度学习基本概
可基大萌萌哒的马鹿
·
2022-12-18 09:39
pytorch
深度学习
人工智能
深度学习基础
-----全连接层的反向传播过程
【Python实现卷积神经网络】:全连接层的正向传播与反向传播+python实现代码_Jack_Kuo的博客-CSDN博客_全连接层反向传播https://microsoft.github.io/ai-edu/%E5%9F%BA%E7%A1%80%E6%95%99%E7%A8%8B/A2-%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E5%9F%BA%E6%9C%AC%
King的王国
·
2022-12-18 09:58
深度学习
深度学习
Python
深度学习基础
(三)——全连接层以及反向传递的理解与手动实现
全连接层以及反向传递的理解与手动实现全连接层简介实现原理正向传递反向传递代码实现全连接层简介全连接层又被称为密连接层,通常可以用Affine或Dense表示实现原理正向传递全连接层在正向传递时和感知机完全一致,都是直接将输入值乘以权值在加上偏置即可,这里尤为注意的是我们使用的是矩阵。公式非常简单y=x⋅w+by=x\cdotw+by=x⋅w+b反向传递对于正向传递的表达式,我们可以将整个正向传递过
艾醒(AiXing-w)
·
2022-12-18 09:25
深度学习方法
深度学习
机器/
深度学习基础
——性能度量
机器/深度学习——性能度量性能度量反映了任务需求,也便于评价一个模型的"好坏"。分类任务中常用的性能度量1、错误率与精度错误率:分类错误的样本数占样本总数的比例精度(acc):分类正确的样本数占样本总数的比例2、查准率、查全率、F1、P-R曲线混淆矩阵:TP+FN+FP+TN=样本总数查准率(precision):P=TPTP+FPP=\frac{TP}{TP+FP}P=TP+FPTP查全率(re
FlyDremever
·
2022-12-17 15:26
ML&DL
机器学习
深度学习
人工智能
深度学习入门——前馈神经网络
前馈神经网络作为
深度学习基础
中的基础,是很多同学入门深度学习的必经之路。由于马上要迎来考试复习周,在这里简单记录一下学习心得。
Leo_SC_Liu
·
2022-12-17 15:15
机器学习
深度学习
神经网络
深度学习基础
入门笔记集合
文章目录第一讲Overview4/18第二讲线性模型【穷举】4/19第三讲梯度下降算法【贪心】4/19第四讲反向传播【神经网络、弹性】4/20第五讲用PyTorch实现线性回归4/21第六讲逻辑斯蒂回归二分类【logisticregression】4/22第七讲处理多维特征的输入4/23--5.14第八讲加载数据集4/24第九讲多分类问题第十讲卷积神经网络CNN基础篇5/3第十一讲卷积神经网络高级
影刃南墙
·
2022-12-17 11:21
深度学习
深度学习
人工智能
机器学习
深度学习基础
15(softmax回归的基本实现)
softmax回归的从零开始实现引入Fashion-MNIST数据集,并设置数据迭代器的批量大小为256。importtorchfromIPythonimportdisplayfromd2limporttorchasd2lbatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)初始化模型参数和之前线性回归的
lj_FLR
·
2022-12-17 09:12
深度学习
深度学习
神经网络
人工智能
线性回归
经验分享
深度学习基础
篇【1】从0开始搭建YOLOX模型用于训练个人数据集
深度学习基础
篇【1】从0开始搭建YOLOX模型用于训练个人数据集YOLOX模型于2021年由开发者ZhengGe,SongtaoLiu,FengWang,ZemingLi,JianSun在《YOLOX:
极链AI云
·
2022-12-15 01:18
深度学习
人工智能
深度学习 | 超参数(Hyperparameters)(4.4)| 上
最近在恶补
深度学习基础
知识,以下为根据公众号“阿力阿哩哩”的《超参数(Hyperparameters)|上》而总结的内容。可以结合作者在哔哩大学的视频。
running snail szj
·
2022-12-14 07:08
深度学习
深度学习
神经网络
人工智能
【
深度学习基础
】从零开始的炼丹生活08——卷积网络
往期回顾:05——深度前馈网络、神经网络概述06——深度学习中的正则化07——深度模型中的优化学习了基本的神经网络结构,以及如何进行正则化和优化之后,我们接下来转向特化的神经网络家族,允许其扩展到能够处理很大规模的数据和具有特殊结构的数据。(主要参考《深度学习》和cousera上吴恩达的课程)卷积网络(convolutionalnetwork),也叫卷积神经网络(CNN),是一种专门用来处理具有类
wby1905
·
2022-12-14 07:38
【深度学习】从零开始的炼丹生活
神经网络
卷积神经网络
算法
深度学习
神经网络与深度学习:卷积神经网络
卷积神经网络1.
深度学习基础
2.图像识别与深度学习3.图像卷积3.1图像卷积运算3.2图像卷积在机器学习中的应用4.卷积神经网络5.卷积神经网络的优化1.
深度学习基础
特征工程:尽可能选择和构建出好的特征
Twinkle1231
·
2022-12-14 01:14
深度学习
神经网络
cnn
深度学习基础
学习-RNN与LTSM、GRU
最近看文献看到了LTSM(LongShortTermMemory)相关的文献,所以把了解到的内容做一个记录RNN循环神经网络(RecurrentNeuralNetwork,RNN),以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneuralnetwork)。因为与时间序列相关,所以多用于自然语言
小夭。
·
2022-12-13 10:58
深度学习
机器学习
机器学习
深度学习
神经网络
深度学习基础
16(softmax回归使用pytorch框架简洁实现)
softmax回归的简洁实现深度学习框架的高级API能够使实现softmax线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。importtorchfromtorchimportnnfromd2limporttorchasd2lbatch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(
lj_FLR
·
2022-12-13 09:35
深度学习
python
深度学习
pytorch
经验分享
Python
深度学习基础
(四)——损失函数
损失函数前言损失函数均方误差(MSE)L2范式与闵可夫斯基距离交叉熵误差(cross_entropy_error)极大似然损失函数(LR)应用场景总结前言在进行深度学习的过程中我们需要有一个评判标准来评价模型,损失函数就是通过比较预测值与真实值的来对模型当前的权值进行评价的损失函数均方误差(MSE)均方误差也被称作最小二乘法,常用于解决回归问题公式这里原本的公式应该为E=1n∑k(yk−tk)2E
艾醒(AiXing-w)
·
2022-12-13 09:03
深度学习方法
python
深度学习
3.深度学习(一)
文章目录第三章
深度学习基础
3.1基本概念3.1.1神经网络组成?3.1.2神经网络有哪些常用模型结构?3.1.3如何选择深度学习开发平台?3.1.4为什么使用深层表示?
abolition cc
·
2022-12-12 10:42
深度学习
深度学习
神经网络
人工智能
深度学习基础
一、网络基础1.感知机单个感知机能够实现逻辑与、或,能实现自我学习。多个感知机组合能够实现逻辑异或。2.神经网络就是一个巨大的复合函数!!!多个感知机连在一起形成级联神经网络为“多层前馈神经网络”。3.激活函数激活函数能将输出转化为非线性,使得神经网络能够解决任意非线性问题。阶跃函数sigmoid函数用来做二分类,将任意实数映射到(0,1)区间。优点:平滑,易于求导。缺点:激活函数计算量大,容易出
青年君
·
2022-12-12 00:35
深度学习
深度学习
深度学习基础
----GAE和VGAE
就看这一个就行了:PytorchGeometricTutorial配合PyG的文档食用:torch_geometric.nn—pytorch_geometricdocumentation只有一个地方不理解,那个KL的实现如何理解,和我在别的地方看到的不一样:按我自己的理解就是:GAE其实就是GCN之后把得到的embedding经过内积(decoder)后送入交叉熵损失函数。VGAE会经过两个GCN
无意识积累中
·
2022-12-11 14:52
Pytorch
深度学习基础
深度学习
pytorch
人工智能
深度学习基础
----mAP和CMC,Recall和Precision,ROC和AUC,NDCG
就Re-ID的任务来说:已知:一个在训练集上训练好的模型,一个query(用于查询的集),一个gallery(在其中搜索结果,或test)求:mAP,CMCmAP:meanAveragePrecision针对:检索问题。是就query和gallery来讨论直述:每一张查询图片在查找集(query和gallery特征的相似度排序)里的匹配程度。由匹配正确的图片和它们的排序位置决定。主要是特征信息提取
无意识积累中
·
2022-12-11 14:52
Re_ID
推荐系统
深度学习基础
深度学习基础
----自监督学习入门
自监督学习初探一.自监督学习的解释:解释一:自监督学习让我们能够没有大规模标注数据也能获得优质的表征,反而我们可以使用大量的未标注数据并且优化预定义的pretext任务。然后我们可以使用这些特性来学习缺乏数据的新任务。解释二:self-supervisedlearning是无监督学习里面的一种,主要是希望能够学习到一种通用的特征表达用于下游任务。其主要的方式就是通过自己监督自己,比如把一段话里面的
无意识积累中
·
2022-12-11 14:22
深度学习基础
深度学习基础
----ROC曲线和AUC值
这个链接里的视频就很好:【小萌五分钟】机器学习|模型评估:ROC曲线与AUC值_哔哩哔哩_bilibili
无意识积累中
·
2022-12-11 13:51
深度学习基础
机器学习
深度学习基础
----Exponential Moving Average
pytorch实现的时候非常需要的基础知识:(参考:pytorch拷贝和梯度回传的问题-知乎)pytorch实现:(参考一下博客:深度学习性能提升技巧--指数加权平均(EMA)Pytorch实现_白又白胖又胖的博客-CSDN博客_emapytorchEMA指数滑动平均原理和实现(PyTorch)-知乎)
无意识积累中
·
2022-12-11 13:12
炼丹技巧
深度学习基础
深度学习
pytorch
人工智能
【
深度学习基础
】BatchNorm,LayerNorm,InstanceNorm,GroupNorm 和 WeightNorm 的原理与PyTorch逐行实现
都参考了讲解视频,感谢分享!!!!(我的理解不到位,存在纰漏,请指出!)1.整理NormalizationBatchNormalizationLayerNormalizationInstanceNormalizationGroupNormalizationWeightNormalization可视化(以图中为例)计算方法perchannelacrossmini-batch通道级别的归一化,根据整个
No pains, no GANs!
·
2022-12-09 15:58
深度学习基础
pytorch
深度学习
机器学习
深度学习基础
。入门到实战,深度学习到底有多深?
深度学习是机器学习的一个特定分支。我们要想充分理解深度学习,必须对机器学习的基本原理有深刻的理解。大部分机器学习算法都有超参数(必须在学习算法外手动设定)。机器学习本质上属于应用统计学,其更加强调使用计算机对复杂函数进行统计估计,而较少强调围绕这些函数证明置信区间;因此我们会探讨两种统计学的主要方法:频率派估计和贝叶斯推断。同时,大部分机器学习算法又可以分成监督学习和无监督学习两类;本文会介绍这两
奋进的贼牛批
·
2022-12-09 09:22
深度学习
人工智能
深度学习
神经网络
算法
深度学习基础
(1)——卷积、池化、全连接
文章目录卷积池化层全连接层Stride卷积层数计算在下图中左侧是一个32x32x3的图像,其中3代表RGB。每个卷积核是5x5x3,每个卷积核生成一个特征图(featuremap)。下图里面有6个5x5x3的卷积核,所以输出6个特征图,大小为28x28x6.下图中,第二层到第三层,其中每个卷积核大小为5x5x6,这里的6就是28x28x6中的6,两者需要相同,即每个卷积核的“层数”需要与输入的“层
刘啊咚咚锵
·
2022-12-08 18:07
深度学习
不是我放弃AI,是AI放弃了我!!
不知从何学起,也不知道学完做什么”“Python语法、机器学习/
深度学习基础
都能看懂,但一做项目就一行代码都写不好”“学了不少课程,但一面试就被别人说基础差、能力差,甚至开始怀疑自己天赋不行,不适合开发
AI科技大本营
·
2022-12-08 15:37
人工智能
编程语言
机器学习
python
数据挖掘
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他