@[TOC]飞桨-PaddlePaddle技术笔记心得
经过学校推广,开始了七天的学习之旅,逐渐意识到,这或许是我见过最好的课程。
节奏虽然比一般的的课程快,但是感觉老师教的非常非常非常好,环境网站的教育辅助效果也非常好,有全部都在云端的环境,还有随时可以互相问答的同学群。
还有人美心善代码6的文姐姐,还有可可爱爱的班主任(虽然生气的时候很怕人)。
学习几天后,我开始后悔为什么不早点遇见Paddle,之前走了太多弯路。看书的效率太低,而Paddle飞桨让我感受到了什么叫40分钟顶你看书三天。
班主任的声音很好听,文老师的课讲的十分生动,还有个男老师的头发很多。
老师也给了我们很多好的中文库文档,比如json。
突然觉得有了更高效的学习之处。
打卡营虽然只有七天,但是给我带来的冲击不只是那一两个小时的直播能说明的,这些深度学习的内容好像可以直接应用到我的小项目中去。比如口罩识别,风格迁移等puddle模型。然后我需要花更多的时间和精力去看国外的论文,去精细的解决某个问题,最重要的是一定要去实践,庆幸的是有个飞桨团队在做这件事,有一群志同道合的小伙伴和我一起,他们会回答你的每一个问题,或许不是那么及时,但是你知道了你需要如何去面对困难,不轻言放弃!
#
#作业一:输出 9*9 乘法口诀表(注意格式)
def table():
#在这里写下您的乘法口诀表代码吧!
for i in range(1,10):
for j in range(1,10):
if(j>i):
break
print(i,'*',j,'=',i*j,sep="",end="")
if(j==i):
print()
else:
if(i*j>=10):
print(" ",end="")
else:
print(" ",end="")
if __name__ == '__main__':
table()
在这里插入代
作业二:查找特定名称文件
遍历”Day1-homework”目录下文件;
找到文件名包含“2020”的文件;
将文件名保存到数组result中;
按照序号、文件名分行打印输出。
注意:提交作业时要有代码执行输出结果。码片
#导入OS模块
import os
#待搜索的目录路径
path = "Day1-homework"
#待搜索的名称
filename = "2020"
#定义保存结果的数组
result = []
file_list = []
def findfiles():
#在这里写下您的查找文件代码吧!
number = 0
for pathList in os.walk(path):
for list_ in pathList[1:]:
for Filename in list_:
if(filename in Filename):
number+=1
result.append([number,pathList[0]+'/'+Filename])
for i in result:
print(i)
if __name__ == '__main__':
findfiles()
爬虫的过程,就是模仿浏览器的行为,往目标站点发送请求,接收服务器的响应数据,提取需要的信息,并进行保存的过程。
Python为爬虫的实现提供了工具:requests模块、BeautifulSoup库
深度学习一般过程:
任务描述
本次实践使用Python来爬取百度百科中《青春有你2》所有参赛选手的信息。
数据获取:https://baike.baidu.com/item/青春有你第二季
上网的全过程:
普通用户:
打开浏览器 --> 往目标站点发送请求 --> 接收响应数据 --> 渲染到页面上。
爬虫程序:
模拟浏览器 --> 往目标站点发送请求 --> 接收响应数据 --> 提取有用的数据 --> 保存到本地/数据库。
爬虫的过程:
1.发送请求(requests模块)
2.获取响应数据(服务器返回)
3.解析并提取数据(BeautifulSoup查找或者re正则)
4.保存数据
import json
import re
import requests
import datetime
from bs4 import BeautifulSoup
import os
#获取当天的日期,并进行格式化,用于后面文件命名,格式:20200420
today = datetime.date.today().strftime('%Y%m%d')
def crawl_wiki_data():
"""
爬取百度百科中《青春有你2》中参赛选手信息,返回html
"""
headers = { #伪装浏览器
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
}
url='https://baike.baidu.com/item/青春有你第二季'
try:
##print(250)
response = requests.get(url,headers=headers)#伪装,发出请求get
print(response.status_code)
##print(251)
#将一段文档传入BeautifulSoup的构造方法,就能得到一个文档的对象, 可以传入一段字符串
soup = BeautifulSoup(response.text,'lxml')
#print('/n',response.text,'/n'),是整个页面信息!
#返回的是class为table-view log-set-param的