- fatal error in launcher to create process using d:/python.exe c:/pip.exe
小阳阳兄
ErrorLogpythonpip开发语言
1问题背景在命令行中执行pipinstallbs4,报错信息为:fatalerrorinlaunchertocreateprocessusing......2排查步骤(1)查看python和pip的环境变量是否正常(2)报错信息中的pip.exe路径与环境变量中的路径不一致,或者python.exe路径与环境变量中的路径不一致。说明电脑里有1个以上的python.exe解释器,而且没有在pip.i
- 学校官网数据的爬取
不要怂_就是干
思路:网页>需要页的链接>请求链接>获取链接中需要的内容>保存importrequestsimportbs4frombs4importBeautifulSoupasbsforiinrange(1,11)://获取11页的新闻数据ifi==1:url="http://news.gzcc.cn/html/xiaoyuanxinwen/index.html"else:url="http://news.g
- Python爬虫的初体验——简单的例子
魅美
笔记网络爬虫python
爬虫的简单例子网址:http://www.ci123.com/baike/nbnc/31输出结果:一个表(excel或数据库)三个字段分别是类型、标题、html富文本。爬虫代码如下:importrequestsfrombs4importBeautifulSoupimportxlwturl='http://www.ci123.com/baike/nbnc/'headers={'User-Agent'
- Python爬虫学习
曹博Blog
Pythonpython爬虫学习
1.1搭建爬虫程序开发环境爬取未来七天天气预报frombs4importBeautifulSoupfrombs4importUnicodeDammitimporturllib.requesturl="http://www.weather.com.cn/weather/101120901.shtml"try:headers={"User-Agent":"Mozilla/5.0(WindowsNT10
- 【python】网络爬虫与信息提取--Beautiful Soup库
嗯诺
pythonpython爬虫开发语言
BeautifulSoup网站:https://www.crummy.com/software/BeautifulSoup/作用:它能够对HTML.xml格式进行解析,并且提取其中的相关信息。它可以对我们提供的任何格式进行相关的爬取,并且可以进行树形解析。使用原理:它能够把任何我们给它的文档当作一锅汤,任何给我们煲制这锅汤。一、安装目前最常用的版本是BeautifulSoup4,也就是bs4,所以
- 5.链家网爬虫(包含,json,csv,数据库存储方式)
学飞的小鸡
importjsonfromurllibimportrequest,parsefrombs4importBeautifulSoupimportcsvimportpymysql#先安装(pipinstallpymysql)#1.请求页面#构造请求对象defcreate_request(url,page,city):page_url=url%(city,page)#print(page_url)hea
- 代码111111
simplesin
pythonpython
importosimporturllib.parseimportnumpyasnpfromutilsimportUrl_managerimportrequestsfrombs4importBeautifulSoupimportreimportrequestsimportiofromastroquery.skyviewimportSkyViewfromastropy.ioimportfitsimpo
- python爬虫学习day1—Books to Scrape
2401_82964032
pythonbeautifulsoup
##第零步安装requests库与BeautifulSoup库,以及学习一点点html知识##第一步导入requests库与BeautifulSoup库importrequestsfrombs4importBeautifulSoup##第三步查看网站是否有反爬机制如果有可以选择伪装浏览器headers={"User-Agent":"自己浏览器的标识"}按F12找到网络(network)然后刷新网页
- python爬虫----selenium特征去除
只是爱了童话
python爬虫selenium
初始写法fromseleniumimportwebdriverfrombs4importBeautifulSoupimportcsvimporttimedriver=webdriver.Chrome()url='https://www.aqistudy.cn/historydata/monthdata.php?city=%E5%8C%97%E4%BA%AC'driver.get(url)#发现没有
- 车载诊断数据库ODX——初步了解ODX
车载诊断技术
汽车数据库架构数据库测试用例服务器
文章目录前言一、ODX简介二、ODX数据类型1.DIAG-LAYER-CONTAINER2.COMPARAM-SPEC3.MULTIPLE-ECU-JOBS4.VEHICLE-INFO-SPEC5.FLASH总结前言今天是2022年12月17日,上海天气:北风呼呼,寒气逼人。加上防疫逐步放开,内心稍微有些恐慌。避免自己空闲时间胡思乱想,坐在电脑面前,对于自身从业车载诊断八年,做一个简单汇总。本系列
- [韩顺平]python笔记
超级用户 root
Pythonpython笔记开发语言
AI工程师、运维工程师python排名逐年上升,为什么?python对大数据分析、人工智能中关键的机器学习、深度学习都提供有力的支持Python支持最庞大的代码库,功能超强数据分析:numpy/pandas/os机器学习:tensorflow/scikit-learn/theano爬虫:urllib/reques/bs4/scrapy网页开发:Django/falsk/web运维:saltstac
- 爬虫
树莓派是什么派
#!/usr/bin/envpython#-*-coding:utf-8-*-frombs4importBeautifulSoupimportrequestsheaders={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/76.0.3809.100Safari/
- python爬虫爬取豆瓣电影
秋笙fine
最近买了《python编程从入门到实践》,想之后写两篇文章,一篇数据可视化,一篇pythonweb,今天这篇就当python入门吧。一.前期准备:IDE准备:pycharm导入的python库:requests用于请求,BeautifulSoup用于网页解析二.实现步骤1.传入url2.解析返回的数据3.筛选4.遍历提取数据三.代码实现importrequests#导入网页请求库frombs4im
- python从入门到精通(十八):python爬虫的练习案列集合
HACKNOE
pythonpython爬虫开发语言
python爬虫的练习1.爬取天气网的北京城市历史天气数据1.1第一种使用面向对象OOP编写爬虫1.2第二种使用面向过程函数编写爬虫1.爬取天气网的北京城市历史天气数据1.1第一种使用面向对象OOP编写爬虫importreimportrequestsfrombs4importBeautifulSoupimportxlwtclassSpider(object):"""天气数据爬虫类"""#定义类变量
- python爬虫beautifulsoup实例-Python爬虫学习(二)使用Beautiful Soup库
weixin_37988176
(一)使用BeautifulSoup库(默认将HTML转换为utf-8编码)1,安装BeautifulSoup库:pipinstallbeautifulsoup42,简单使用:importrequests;from_socketimporttimeoutfrombs4importBeautifulSoup#使用BeautifulSoup库需要导包#fromaifcimportdatadefgetH
- python爬虫beautifulsoup实例-Python爬虫利器之Beautiful Soup实例测试
weixin_37988176
#-*-coding:UTF-8-*-frombs4importBeautifulSoupimportrehtml_doc="""TheDormouse'sstoryTheDormouse'sstoryOnceuponatimetherewerethreelittlesisters;andtheirnameswereElsie,LacieandTillie;andtheylivedatthebot
- Python 用BeautifulSoup从HTML网页格式中获取信息
LeeMin_Z
记录一下py4e课程的beautifulsoup作业,虽然是我写的但其实应该算半原创的。找到某个网页上的链接。步骤解析:引入相关库忽略SSL错误打开网站并且引用BS4直接提取相关内容importurllib.request,urllib.parse,urllib.errorfrombs4importBeautifulSoupimportssl#IgnoreSSLcertificateerrorsc
- 《浅谈解析库XPath,bs4和pyquery》
禾先森
#**《浅谈解析库XPath,bs4和pyquery》**###作者:*墨非墨菲非菲*前几天在CSDN看到一篇帖子,题目是“如何让自己像打王者一样发了疯,拼了命,石乐志的学习”。这里面讲到了阶段性反馈机制,我觉得蛮有意思的,正好前两天用python写了一个scrawler爬取了某XXXX软件上面的挑战答题并自动匹配。在解析题库网页的时候碰到了一系列的问题,把三种解析库都回顾了个遍。借着这个兴奋劲儿
- python脚本实现实验室服务器断网自动重连
叶尔孤柏
杂记python服务器开发语言
系统:Ubuntu22.04selenium4和之前的版本不一样,在网上找的代码就报错说某某函数被弃用了。。。步骤一:驱动问题就是要下载个启动自己浏览器的驱动,我用的是chromechrome驱动下载火狐的自已搜吧下载完直接放在脚本对应的文件夹下面把,方便直接用步骤二:上代码importtimeimportrequestsfrombs4importBeautifulSoupfromselenium
- pyhton之解析html的table表格
Hero.Lin
python开发python开发语言
先安装模块BeautifulSouppip3installbeautifulsoup4#!/usr/bin/envpython3#-*-coding:utf-8-*-__author__='herolin'frombs4importBeautifulSouphtml_doc=""""""soup=BeautifulSoup(html_doc,'html.parser')forrowinsoup.f
- 案例:爬取豆瓣电影 Top250 的数据
suoge223
爬虫python
这是一个简单的Python爬虫案例,通过发送HTTP请求,解析网页内容,提取目标信息,并循环爬取多页数据,最终获得了豆瓣电影Top250的电影名称、评分、评价人数等信息。您可以根据这个示例来编写其他爬虫案例,并根据需要对代码进行修改和扩展。1.目标:爬取豆瓣电影Top250的电影名称、评分、评价人数等信息。2.实现过程:2.1导入必要的库importrequestsfrombs4importBea
- python编写简单的爬取图片程序
米帝咖啡巨人
python爬虫
话不多说直接上代码importrequestsfrombs4importBeautifulSoupimportosdefdownload_image(url,save_directory):#发送GET请求response=requests.get(url)#获取图片文件名file_name=url.split("/")[-1]#拼接保存路径save_path=os.path.join(save_
- Python网络爬虫四大选择器(正则表达式、BS4、Xpath、CSS)总结
雪小妮
爬虫
Python网络爬虫四大选择器(正则表达式、BS4、Xpath、CSS)总结0.前言相关实战文章:正则表达式、BeautifulSoup、Xpath、CSS选择器分别抓取京东网的商品信息。网络爬虫:模拟客户端批量发送网络请求,批量接收请求对应的数据,按照一定的规则,自动抓取互联网信息的程序,进行数据采集,并进行持久化存储。其他用途:百度搜索,12306抢票、各种抢购、投票、刷票、短信轰炸、网络攻击
- 查询天气信息(Python系列之——爬虫)
罗方涵
python爬虫python
在我们生活的每一个天,都有天气(废话!)那我们可以使用Python的BeautifulSoup库就能爬取到天气信息。1.安装BeautifulSoup与lxmlpipinstallbeautifulsoup4pipinstalllxml2.准备编程笔者是Python3.11制作的,就拿杭州的信息做:frombs4importBeautifulSoupimportrequestsurl="http:
- 爬虫小实例——定向爬取及优化输出格式
WongKyunban
Python定向爬取
定向爬取的URL:http://www.zuihaodaxue.cn/zuihaodaxuepaiming2019.htmlimportrequestsfrombs4importBeautifulSoupimportbs4#获得爬取的内容defget_html_text(url):try:r=requests.get(url,timeout=30)r.raise_for_status()#设置文本
- Python爬取豆瓣Top250电影数据
irisMoon06
python开发语言
一、Python爬取目标数据,并写入csv运用了requests库获取页面、BeautifulSoup库解析页面(方法很多,可自行延伸)1、引入库importrequestsfrombs4importBeautifulSoupimportcsvimportre2、获取一级页面内容用"get_one_page()"作为函数,别忘了添加"headers"做反爬特别注意:“cookie"值要用自己注册的
- python词频统计并生成词云
10xjzheng
.1.看效果image.png2.看代码github地址:StatWordOfPoem步骤:1.协程爬取诗词网站获取诗词内容2.分词3.生成词云4.用法eg:pythonmain.py苏轼main.py内容:#coding=utf8importrequestsfromsysimportargvfrombs4importBeautifulSoupimportre,timeimportaiohttpi
- bs4模块
林小果1
python爬虫python爬虫网络爬虫
bs4模块与案例使用指南bs4,全称BeautifulSoup4,是Python中一个强大的网页解析库,它可以帮助我们方便地从网页中提取数据。bs4将复杂HTML文档转换成树形结构,每个节点都是Python对象,所有对象可以归纳为4种:Tag,NavigableString,BeautifulSoup,Comment。安装bs4在Python环境下,我们可以使用pip命令进行安装:pipinsta
- Python爬虫实例(3)--BeautifulSoup的CSS选择器
演技拉满的白马
爬虫python爬虫css
Python爬虫实例紧接着上一讲的内容。我们初步了解了bs4这个解析库。但是bs4难道只有find,find_all了吗?如果层次比较深,相似的元素比较多,和可能会写的比较长。最主要的是很难搞清逻辑。所以这一章是bs4的中级部分。任务:解析修真聊天群的章节标题。网页数据见上一讲。本期耗时15min。练习耗时15min。文章目录Python爬虫实例前言一、select选择器select函数简介CSS
- 数据爬虫是什么
Bearjumpingcandy
爬虫
数据爬虫是一种自动获取网页内容的程序,通过模拟人的浏览行为,从网页中提取所需的数据。以下是一个简单的数据爬虫的示例:importrequestsfrombs4importBeautifulSoup#发送HTTP请求获取网页内容url="https://example.com"response=requests.get(url)html_content=response.text#使用Beautif
- 312个免费高速HTTP代理IP(能隐藏自己真实IP地址)
yangshangchuan
高速免费superwordHTTP代理
124.88.67.20:843
190.36.223.93:8080
117.147.221.38:8123
122.228.92.103:3128
183.247.211.159:8123
124.88.67.35:81
112.18.51.167:8123
218.28.96.39:3128
49.94.160.198:3128
183.20
- pull解析和json编码
百合不是茶
androidpull解析json
n.json文件:
[{name:java,lan:c++,age:17},{name:android,lan:java,age:8}]
pull.xml文件
<?xml version="1.0" encoding="utf-8"?>
<stu>
<name>java
- [能源与矿产]石油与地球生态系统
comsci
能源
按照苏联的科学界的说法,石油并非是远古的生物残骸的演变产物,而是一种可以由某些特殊地质结构和物理条件生产出来的东西,也就是说,石油是可以自增长的....
那么我们做一个猜想: 石油好像是地球的体液,我们地球具有自动产生石油的某种机制,只要我们不过量开采石油,并保护好
- 类与对象浅谈
沐刃青蛟
java基础
类,字面理解,便是同一种事物的总称,比如人类,是对世界上所有人的一个总称。而对象,便是类的具体化,实例化,是一个具体事物,比如张飞这个人,就是人类的一个对象。但要注意的是:张飞这个人是对象,而不是张飞,张飞只是他这个人的名字,是他的属性而已。而一个类中包含了属性和方法这两兄弟,他们分别用来描述对象的行为和性质(感觉应该是
- 新站开始被收录后,我们应该做什么?
IT独行者
PHPseo
新站开始被收录后,我们应该做什么?
百度终于开始收录自己的网站了,作为站长,你是不是觉得那一刻很有成就感呢,同时,你是不是又很茫然,不知道下一步该做什么了?至少我当初就是这样,在这里和大家一份分享一下新站收录后,我们要做哪些工作。
至于如何让百度快速收录自己的网站,可以参考我之前的帖子《新站让百
- oracle 连接碰到的问题
文强chu
oracle
Unable to find a java Virtual Machine--安装64位版Oracle11gR2后无法启动SQLDeveloper的解决方案
作者:草根IT网 来源:未知 人气:813标签:
导读:安装64位版Oracle11gR2后发现启动SQLDeveloper时弹出配置java.exe的路径,找到Oracle自带java.exe后产生的路径“C:\app\用户名\prod
- Swing中按ctrl键同时移动鼠标拖动组件(类中多借口共享同一数据)
小桔子
java继承swing接口监听
都知道java中类只能单继承,但可以实现多个接口,但我发现实现多个接口之后,多个接口却不能共享同一个数据,应用开发中想实现:当用户按着ctrl键时,可以用鼠标点击拖动组件,比如说文本框。
编写一个监听实现KeyListener,NouseListener,MouseMotionListener三个接口,重写方法。定义一个全局变量boolea
- linux常用的命令
aichenglong
linux常用命令
1 startx切换到图形化界面
2 man命令:查看帮助信息
man 需要查看的命令,man命令提供了大量的帮助信息,一般可以分成4个部分
name:对命令的简单说明
synopsis:命令的使用格式说明
description:命令的详细说明信息
options:命令的各项说明
3 date:显示时间
语法:date [OPTION]... [+FORMAT]
- eclipse内存优化
AILIKES
javaeclipsejvmjdk
一 基本说明 在JVM中,总体上分2块内存区,默认空余堆内存小于 40%时,JVM就会增大堆直到-Xmx的最大限制;空余堆内存大于70%时,JVM会减少堆直到-Xms的最小限制。 1)堆内存(Heap memory):堆是运行时数据区域,所有类实例和数组的内存均从此处分配,是Java代码可及的内存,是留给开发人
- 关键字的使用探讨
百合不是茶
关键字
//关键字的使用探讨/*访问关键词private 只能在本类中访问public 只能在本工程中访问protected 只能在包中和子类中访问默认的 只能在包中访问*//*final 类 方法 变量 final 类 不能被继承 final 方法 不能被子类覆盖,但可以继承 final 变量 只能有一次赋值,赋值后不能改变 final 不能用来修饰构造方法*///this()
- JS中定义对象的几种方式
bijian1013
js
1. 基于已有对象扩充其对象和方法(只适合于临时的生成一个对象):
<html>
<head>
<title>基于已有对象扩充其对象和方法(只适合于临时的生成一个对象)</title>
</head>
<script>
var obj = new Object();
- 表驱动法实例
bijian1013
java表驱动法TDD
获得月的天数是典型的直接访问驱动表方式的实例,下面我们来展示一下:
MonthDaysTest.java
package com.study.test;
import org.junit.Assert;
import org.junit.Test;
import com.study.MonthDays;
public class MonthDaysTest {
@T
- LInux启停重启常用服务器的脚本
bit1129
linux
启动,停止和重启常用服务器的Bash脚本,对于每个服务器,需要根据实际的安装路径做相应的修改
#! /bin/bash
Servers=(Apache2, Nginx, Resin, Tomcat, Couchbase, SVN, ActiveMQ, Mongo);
Ops=(Start, Stop, Restart);
currentDir=$(pwd);
echo
- 【HBase六】REST操作HBase
bit1129
hbase
HBase提供了REST风格的服务方便查看HBase集群的信息,以及执行增删改查操作
1. 启动和停止HBase REST 服务 1.1 启动REST服务
前台启动(默认端口号8080)
[hadoop@hadoop bin]$ ./hbase rest start
后台启动
hbase-daemon.sh start rest
启动时指定
- 大话zabbix 3.0设计假设
ronin47
What’s new in Zabbix 2.0?
去年开始使用Zabbix的时候,是1.8.X的版本,今年Zabbix已经跨入了2.0的时代。看了2.0的release notes,和performance相关的有下面几个:
:: Performance improvements::Trigger related da
- http错误码大全
byalias
http协议javaweb
响应码由三位十进制数字组成,它们出现在由HTTP服务器发送的响应的第一行。
响应码分五种类型,由它们的第一位数字表示:
1)1xx:信息,请求收到,继续处理
2)2xx:成功,行为被成功地接受、理解和采纳
3)3xx:重定向,为了完成请求,必须进一步执行的动作
4)4xx:客户端错误,请求包含语法错误或者请求无法实现
5)5xx:服务器错误,服务器不能实现一种明显无效的请求
- J2EE设计模式-Intercepting Filter
bylijinnan
java设计模式数据结构
Intercepting Filter类似于职责链模式
有两种实现
其中一种是Filter之间没有联系,全部Filter都存放在FilterChain中,由FilterChain来有序或无序地把把所有Filter调用一遍。没有用到链表这种数据结构。示例如下:
package com.ljn.filter.custom;
import java.util.ArrayList;
- 修改jboss端口
chicony
jboss
修改jboss端口
%JBOSS_HOME%\server\{服务实例名}\conf\bindingservice.beans\META-INF\bindings-jboss-beans.xml
中找到
<!-- The ports-default bindings are obtained by taking the base bindin
- c++ 用类模版实现数组类
CrazyMizzz
C++
最近c++学到数组类,写了代码将他实现,基本具有vector类的功能
#include<iostream>
#include<string>
#include<cassert>
using namespace std;
template<class T>
class Array
{
public:
//构造函数
- hadoop dfs.datanode.du.reserved 预留空间配置方法
daizj
hadoop预留空间
对于datanode配置预留空间的方法 为:在hdfs-site.xml添加如下配置
<property>
<name>dfs.datanode.du.reserved</name>
<value>10737418240</value>
 
- mysql远程访问的设置
dcj3sjt126com
mysql防火墙
第一步: 激活网络设置 你需要编辑mysql配置文件my.cnf. 通常状况,my.cnf放置于在以下目录: /etc/mysql/my.cnf (Debian linux) /etc/my.cnf (Red Hat Linux/Fedora Linux) /var/db/mysql/my.cnf (FreeBSD) 然后用vi编辑my.cnf,修改内容从以下行: [mysqld] 你所需要: 1
- ios 使用特定的popToViewController返回到相应的Controller
dcj3sjt126com
controller
1、取navigationCtroller中的Controllers
NSArray * ctrlArray = self.navigationController.viewControllers;
2、取出后,执行,
[self.navigationController popToViewController:[ctrlArray objectAtIndex:0] animated:YES
- Linux正则表达式和通配符的区别
eksliang
正则表达式通配符和正则表达式的区别通配符
转载请出自出处:http://eksliang.iteye.com/blog/1976579
首先得明白二者是截然不同的
通配符只能用在shell命令中,用来处理字符串的的匹配。
判断一个命令是否为bash shell(linux 默认的shell)的内置命令
type -t commad
返回结果含义
file 表示为外部命令
alias 表示该
- Ubuntu Mysql Install and CONF
gengzg
Install
http://www.navicat.com.cn/download/navicat-for-mysql
Step1: 下载Navicat ,网址:http://www.navicat.com/en/download/download.html
Step2:进入下载目录,解压压缩包:tar -zxvf navicat11_mysql_en.tar.gz
- 批处理,删除文件bat
huqiji
windowsdos
@echo off
::演示:删除指定路径下指定天数之前(以文件名中包含的日期字符串为准)的文件。
::如果演示结果无误,把del前面的echo去掉,即可实现真正删除。
::本例假设文件名中包含的日期字符串(比如:bak-2009-12-25.log)
rem 指定待删除文件的存放路径
set SrcDir=C:/Test/BatHome
rem 指定天数
set DaysAgo=1
- 跨浏览器兼容的HTML5视频音频播放器
天梯梦
html5
HTML5的video和audio标签是用来在网页中加入视频和音频的标签,在支持html5的浏览器中不需要预先加载Adobe Flash浏览器插件就能轻松快速的播放视频和音频文件。而html5media.js可以在不支持html5的浏览器上使video和audio标签生效。 How to enable <video> and <audio> tags in
- Bundle自定义数据传递
hm4123660
androidSerializable自定义数据传递BundleParcelable
我们都知道Bundle可能过put****()方法添加各种基本类型的数据,Intent也可以通过putExtras(Bundle)将数据添加进去,然后通过startActivity()跳到下一下Activity的时候就把数据也传到下一个Activity了。如传递一个字符串到下一个Activity
把数据放到Intent
- C#:异步编程和线程的使用(.NET 4.5 )
powertoolsteam
.net线程C#异步编程
异步编程和线程处理是并发或并行编程非常重要的功能特征。为了实现异步编程,可使用线程也可以不用。将异步与线程同时讲,将有助于我们更好的理解它们的特征。
本文中涉及关键知识点
1. 异步编程
2. 线程的使用
3. 基于任务的异步模式
4. 并行编程
5. 总结
异步编程
什么是异步操作?异步操作是指某些操作能够独立运行,不依赖主流程或主其他处理流程。通常情况下,C#程序
- spark 查看 job history 日志
Stark_Summer
日志sparkhistoryjob
SPARK_HOME/conf 下:
spark-defaults.conf 增加如下内容
spark.eventLog.enabled true spark.eventLog.dir hdfs://master:8020/var/log/spark spark.eventLog.compress true
spark-env.sh 增加如下内容
export SP
- SSH框架搭建
wangxiukai2015eye
springHibernatestruts
MyEclipse搭建SSH框架 Struts Spring Hibernate
1、new一个web project。
2、右键项目,为项目添加Struts支持。
选择Struts2 Core Libraries -<MyEclipes-Library>
点击Finish。src目录下多了struts