今天爬的很晚,没想到新闻早班车也排的那么低
回家第一天
昨天出去走了一圈
发现深圳的过年真的人太少了
球场逛了两个
都没有什么人(一个球场三个人,还是拖家带口那种;一个球场有两个专业的吧,在练球,还有人在拍摄)
这个氛围组不齐人玩的
所以 昨天是了下买车票
买得到就走
卖不到就还是留在深圳
没想到 硬生生给我排到了
这都要多亏了现在的高铁候补改变了很多规则
导致大家候补到票的几率大大增加(牛!)
但 即使晚
我也要坚持更新!
similar
解释:意为相似的,不强调完全一致,而是存在共同点或相似特性。
记忆方法:可将 “similar” 与熟悉的单词 “similarity”(相似性)关联起来记忆,或者拆解成 “simi-”(看起来像)和 “-lar” 结尾的形容词形式。(还牵强,还不如我的 si mi la r :看起来咪咪眼的人都相似,都会拉人)
# -*- coding: utf-8 -*-
# @Time : 2024/1/25 11:11
# @File : everyDayRequestwx.py
# @Software: vscode
# @author : Zercher
# @Desc : 爬取微信文章热榜前10 网址:https://www.gsdata.cn/rank/wxarc
import requests
from bs4 import BeautifulSoup
import pandas as pd
import tkinter as tk
from tkinter import ttk
import webbrowser
url = 'https://www.gsdata.cn/rank/wxarc'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'
}
r = requests.get(url, headers=headers)
# print(r.text)
# print(r.status_code)
soup = BeautifulSoup(r.text, 'html.parser')
articleTitles = []
articleLinks = []
articlePublishs = []
articleLikes = []
for i in range(1, 11):
r = soup.find_all('tr')[i].find_all('td')
articleTitle = r[0].get_text().strip() # 去除首尾空格
articleLink = r[0].a['href']
articlePublish = r[1].get_text()
articleTitles.append(articleTitle)
articleLinks.append(articleLink)
articlePublishs.append(articlePublish)
articleLikes.append(r[4].get_text())
# 创建DataFrame
data = {
'标题': [articleTitle.strip() for articleTitle in articleTitles], # 去除首尾空格和换行符
'链接': articleLinks,
'来源': articlePublishs,
'点赞数': articleLikes
}
df = pd.DataFrame(data)
# 打印标题和来源
print(articleTitles)
print(articlePublishs)
# 保存为CSV文件
df.to_csv('news_data.csv', index=False, encoding='utf_8_sig')
print('爬取完成!')
# 创建主窗口
root = tk.Tk()
root.title("新闻信息")
# 创建Treeview控件,并设置其头部列名
treeview = ttk.Treeview(root, columns=("标题", "链接", "来源", '点赞数'), show="headings")
treeview.column("标题", width=500, anchor=tk.CENTER)
treeview.column("链接", width=300, anchor=tk.CENTER)
treeview.column("来源", width=150, anchor=tk.CENTER)
treeview.column("点赞数", width=150, anchor=tk.CENTER)
treeview.heading("标题", text="标题")
treeview.heading("链接", text="链接")
treeview.heading("来源", text="来源")
treeview.heading("点赞数", text="点赞数")
def open_url(event):
item = treeview.selection()[0] # 获取选中的行
url = treeview.item(item, "values")[1] # 获取该行的链接值
# 指定Edge浏览器打开链接
webbrowser.register('edge', None, webbrowser.BackgroundBrowser(r'C:\Program Files (x86)\Microsoft\Edge\Application\msedge.exe'))
webbrowser.get('edge').open(url)
treeview.bind('' , open_url) # 绑定鼠标左键释放事件
# 将数据插入到Treeview中并绑定点击事件
for i, (_title, _link, _publish, _Like) in enumerate(zip(articleTitles, articleLinks, articlePublishs, articleLikes)):
item_id = treeview.insert("", tk.END, values=(_title, _link, _publish, _Like))
# 显示Treeview
treeview.pack(fill=tk.BOTH, expand=True)
# 运行主循环
root.mainloop()
新奇,居然是这种公文型的文章排到第一
引用里面的内容:
豫筑平安
2023年,经历了风雨洗礼,取得了丰硕成果,是传承巩固、守正创新,稳中有进、进中蓄势的一年。以“群众第一、基层第一、民警第一”理念为引领,以“豫筑平安”行动为载体,持之以恒铸忠诚、转理念、强作风、提能力、严纪律、优保障、建新功,在大局中奋进、在大事上作为,各项工作取得新成效、展现新气象。
后面的图都是对这个段落的详细解释。
对于公安我的印象,说实话很一般般
最近看了一个片子的解说
感觉不错,推荐大家看看
镜头下的公安局,成年人的尊严一文不值,看一遍喊一声“草”《差馆》
确实每段回忆都是组成你这个人的独特的成分
不用妄自菲薄自己的过去如何
我们只需要坚定做自己!
中国物流与采购联合会消息,2023年,我国社会物流总额超352万亿元,市场需求规模恢复加快。(物流是真不错,数据很好,大物流行业有福了)
7日,潜逃境外8年、涉嫌集资诈骗犯罪的“红通”在逃犯罪嫌疑人周某平被从新加坡遣返回国。(任你逃多远,只要犯了罪,总是洗不掉,慎行)
北京市教委要求,寒假期间不安排一线教师值班值守,值班值守以领导干部、行政人员为主。(是吗? 真有勇气的第一步,希望后续有人跟进,大家如果是老师的可以自己看看周围)
国家文物局消息,流失海外40年的国家一级文物丰邢叔簋已于近日平安抵京,重归祖国怀抱。(看起来好精致呀,以前的手艺人居然也能做到这个程度)
7日,在世界泳联锦标赛跳水女子三米跳板决赛中,中国队组合陈艺文/昌雅妮夺得冠军。(强,最近都是关于水的夺冠,中国利水呀)
近日,江苏无锡一名女子落水,辅警高海不顾寒冷跳入水中,成功将女子救起。(水,龙年大吉,龙吸水,大家多喝水)