能参加到这次的百度飞桨七日“Python小白逆袭大神”打卡营是一次偶然的了解得知的这个机会,之前因为课程和基础不够扎实参加到AI实战营没有顺利跟完全程,这一次很开心可以顺利跟上并且结营。下面的内容就简要的总结一下这几天的学习内容和踩过的小坑吧。
本次课程的课程目标:
1.掌握Python的基础语言、进阶知识和常用的深度学习库,能够利用Python爬取数据并进行可视化分析
2.掌握人工智能基础知识、应用,体验人工智能的前沿技术
3.了解飞桨平台及百度AI技术、应用,掌握AI Studio的使用方法
第一天的学习是对于python语言和人工智能的一个简单介绍,这部分对于没有什么基础的小白来说还是很友好,实验上应该也比较简单,没有遇到什么大问题,就直接上代码:
def table():
for i in range(1,10):
for j in range(1,i+1):
print("{}*{}={:2} ".format(j,i,i*j), end='')
print('')
if __name__ == '__main__':
table()
#导入OS模块
import os
#待搜索的目录路径
path = "Day1-homework"
#待搜索的名称
filename = "2020"
#定义保存结果的数组
result = []
def findfiles(path):
#在这里写下您的查找文件代码吧!
global index
li=os.listdir(path)
for p in li:
tempPathName=p
pathname=os.path.join(path,p)
if os.path.isdir(pathname):
findfiles(pathname)
elif os.path.isfile(pathname):
if(tempPathName.find(filename)!=-1):
index=0
index=index+1
result=[]
result.append(index)
result.append(pathname)
if(len(result)>0):
print(result)
if __name__ == '__main__':
findfiles(path)
这次实践使用Python来爬取百度百科中《青春有你2》所有参赛选手的信息,对于小白来说可以上手稍微有一点点难度,但跟着课程老师的思路和讲解还是可以克服困难的
爬虫的过程:
1.发送请求(requests模块)
2.获取响应数据(服务器返回)
3.解析并提取数据(BeautifulSoup查找或者re正则)
4.保存数据
一、爬取百度百科中《青春有你2》中所有参赛选手信息,返回页面数据
import json
import re
import requests
import datetime
from bs4 import BeautifulSoup
import os
#获取当天的日期,并进行格式化,用于后面文件命名,格式:20200420
today = datetime.date.today().strftime('%Y%m%d')
def crawl_wiki_data():
"""
爬取百度百科中《青春有你2》中参赛选手信息,返回html
"""
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
}
url='https://baike.baidu.com/item/青春有你第二季'
try:
response = requests.get(url,headers=headers)
print(response.status_code)
#将一段文档传入BeautifulSoup的构造方法,就能得到一个文档的对象, 可以传入一段字符串
soup = BeautifulSoup(response.text,'lxml')
#返回的是class为table-view log-set-param的