【爬虫】Scrapy 抓取网站数据

【原文链接】http://chenqx.github.io/2014/11/09/Scrapy-Tutorial-for-BBSSpider/

 

Scrapy Tutorial

  接下来以爬取饮水思源BBS数据为例来讲述爬取过程,详见 bbsdmoz代码
  本篇教程中将带您完成下列任务:

1. 创建一个Scrapy项目
2. 定义提取的Item
3. 编写爬取网站的 spider 并提取 Item
4. 编写 Item Pipeline 来存储提取到的Item(即数据)

Creating a project

  在开始爬取之前,您必须创建一个新的Scrapy项目。进入您打算存储代码的目录中,运行下列命令:

scrapy startproject bbsdmoz

该命令将会创建包含下列内容的 bbsDmoz 目录,这些文件分别是:

  • scrapy.cfg: 项目的配置文件
  • bbsDmoz/: 该项目的python模块。之后您将在此加入代码。
  • bbsDmoz/items.py: 项目中的item文件.
  • bbsDmoz/pipelines.py: 项目中的pipelines文件.
  • bbsDmoz/settings.py: 项目的设置文件.
  • bbsDmoz/spiders/: 放置spider代码的目录.

Defining our Item

  Item 是保存爬取到的数据的容器;其使用方法和python字典类似,并且提供了额外保护机制来避免拼写错误导致的未定义字段错误。
  类似在ORM (Object Relational Mapping, 对象关系映射) 中做的一样,您可以通过创建一个 scrapy.Item 类,并且定义类型为 scrapy.Field 的类属性来定义一个Item。(如果不了解ORM,不用担心,您会发现这个步骤非常简单)
  首先根据需要从bbs网站获取到的数据对item进行建模。 我们需要从中获取url,发帖板块,发帖人,以及帖子的内容。 对此,在item中定义相应的字段。编辑 bbsDmoz 目录中的 items.py 文件:

# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.html

from scrapy.item import Item, Field

class BbsItem(Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    url = Field()
    forum = Field()
    poster = Field()
    content = Field()

  一开始这看起来可能有点复杂,但是通过定义item, 您可以很方便的使用Scrapy的其他方法。而这些方法需要知道您的item的定义。

Our first Spider

  Spider是用户编写用于从单个网站(或者一些网站)爬取数据的类。
  其包含了一个用于下载的初始URL,如何跟进网页中的链接以及如何分析页面中的内容, 提取生成 item 的方法。

创建一个Spider

Selectors选择器

  我们使用XPath来从页面的HTML源码中选择需要提取的数据。这里给出XPath表达式的例子及对应的含义:

  • /html/head/title: 选择HTML文档中 标签内的 </code> 元素</li> <li><code>/html/head/title/text()</code>: 选择上面提到的 <code><title></code> 元素的文字</li> <li><code>//td</code>: 选择所有的 <code><td></code> 元素</li> <li><code>//div[@class="mine"]</code>: 选择所有具有 <code>class="mine"</code> 属性的 <code>div</code> 元素</li> </ul> <p>  以饮水思源BBS一页面为例:https://bbs.sjtu.edu.cn/bbstcon?board=PhD&reid=1406973178&file=M.1406973178.A<br>   观察HTML页面源码并创建我们需要的数据(种子名字,描述和大小)的XPath表达式。<br>   通过观察,我们可以发现<code>poster</code>是包含在 <code>pre/a</code> 标签中的,这里是<code>userid=jasperstream</code>:</p> <p><a href="http://img.e-com-net.com/image/info8/3caac6f3781240b2977cdd071037d00d.jpg" target="_blank"><img alt="【爬虫】Scrapy 抓取网站数据_第1张图片" class="has" src="http://img.e-com-net.com/image/info8/3caac6f3781240b2977cdd071037d00d.jpg" width="650" height="282" style="border:1px solid black;"></a></p> <p>  因此可以提取<code>jasperstream</code>的 XPath 表达式为:'//pre/a/text()'</p> <p>  为了配合XPath,Scrapy除了提供了 Selector 之外,还提供了方法来避免每次从response中提取数据时生成selector的麻烦。Selector有四个基本的方法:</p> <ul> <li><code>xpath()</code>: 传入xpath表达式,返回该表达式所对应的所有节点的<code>selector list</code>列表 。</li> <li><code>css()</code>: 传入CSS表达式,返回该表达式所对应的所有节点的<code>selector list</code>列表.</li> <li><code>extract()</code>: 序列化该节点为unicode字符串并返回<code>list</code>。</li> <li><code>re()</code>: 根据传入的正则表达式对数据进行提取,返回unicode字符串list列表。</li> </ul> <p>  如提取上述的<code>poster</code>的数据:</p> <pre class="has"><code class="language-python">sel.xpath('//pre/a/text()').extract()</code></pre> <h3 id="使用Item">使用Item</h3> <p>  <code>Item</code> 对象是自定义的python字典。您可以使用标准的字典语法来获取到其每个字段的值(字段即是我们之前用Field赋值的属性)。一般来说,Spider将会将爬取到的数据以 <code>Item</code> 对象返回。 </p> <h3 id="Spider代码">Spider代码</h3> <p>  以下为我们的第一个<strong><code>Spider代码</code></strong>,保存在 <code>bbsDmoz/spiders</code> 目录下的 <code>forumSpider.py</code> 文件中:</p> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- """ Created on Fri Jul 20 13:18:58 2018 @author: Administrator """ from scrapy.selector import Selector from scrapy.http import Request from scrapy.contrib.spiders import CrawlSpider from scrapy.contrib.loader import ItemLoader #SGMLParser based link extractors are unmantained and its usage is discouraged. It is recommended to migrate to LxmlLinkExtractor #from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor from scrapy.contrib.linkextractors.lxmlhtml import LxmlLinkExtractor from bbsdmoz.items import BbsItem class forumSpider(CrawlSpider): # name of spiders name = 'bbsSpider' allow_domain = ['bbs.sjtu.edu.cn'] start_urls = [ 'https://bbs.sjtu.edu.cn/bbsall' ] link_extractor = { 'page': LxmlLinkExtractor(allow = '/bbsdoc,board,\w+\.html$'), 'page_down': LxmlLinkExtractor(allow = '/bbsdoc,board,\w+,page,\d+\.html$'), 'content': LxmlLinkExtractor(allow = '/bbscon,board,\w+,file,M\.\d+\.A\.html$'), } _x_query = { 'page_content': '//pre/text()[2]', 'poster' : '//pre/a/text()', 'forum' : '//center/text()[2]', } def parse(self, response): for link in self.link_extractor['page'].extract_links(response): yield Request(url = link.url, callback=self.parse_page) def parse_page(self, response): for link in self.link_extractor['page_down'].extract_links(response): yield Request(url = link.url, callback=self.parse_page) for link in self.link_extractor['content'].extract_links(response): yield Request(url = link.url, callback=self.parse_content) def parse_content(self, response): bbsItem_loader = ItemLoader(item=BbsItem(), response = response) url = str(response.url) bbsItem_loader.add_value('url', url) bbsItem_loader.add_xpath('forum', self._x_query['forum']) bbsItem_loader.add_xpath('poster', self._x_query['poster']) bbsItem_loader.add_xpath('content', self._x_query['page_content']) return bbsItem_loader.load_item()</code></pre> <h2 id="Define_Item_Pipeline"><strong>Define Item Pipeline</strong></h2> <p>  当Item在Spider中被收集之后,它将会被传递到Item Pipeline,一些组件会按照一定的顺序执行对Item的处理。<br>   每个item pipeline组件(有时称之为“Item Pipeline”)是实现了简单方法的Python类。他们接收到Item并通过它执行一些行为,同时也决定此Item是否继续通过pipeline,或是被丢弃而不再进行处理。<br>   以下是<code>item pipeline</code>的一些典型应用:</p> <ul> <li>清理HTML数据</li> <li>验证爬取的数据(检查item包含某些字段)</li> <li>查重(并丢弃)</li> <li>将爬取结果保存,如保存到数据库、XML、JSON等文件中</li> </ul> <h3 id="编写_Item_Pipeline">编写 Item Pipeline</h3> <p>  编写你自己的<code>item pipeline</code>很简单,每个<code>item pipeline</code>组件是一个独立的Python类,同时必须实现以下方法:</p> <pre class="has"><code class="language-python">process_item(item, spider)   每个item pipeline组件都需要调用该方法,这个方法必须返回一个 Item (或任何继承类)对象,或是抛出 DropItem异常,被丢弃的item将不会被之后的pipeline组件所处理。   参数:item (Item object) – 由 parse 方法返回的 Item 对象      spider (Spider object) – 抓取到这个 Item 对象对应的爬虫对象</code></pre> <p>  此外,他们也可以实现以下方法:</p> <pre class="has"><code class="language-python">open_spider(spider)   当spider被开启时,这个方法被调用。   参数: spider (Spider object) – 被开启的spider close_spider(spider)   当spider被关闭时,这个方法被调用,可以再爬虫关闭后进行相应的数据处理。   参数: spider (Spider object) – 被关闭的spider</code></pre> <p>  本文爬虫的<code>item pipeline</code>如下,保存为XML文件:</p> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html from scrapy import signals from scrapy import log from bbsdmoz.items import BbsItem from twisted.enterprise import adbapi from scrapy.contrib.exporter import XmlItemExporter from dataProcess import dataProcess class BbsdmozPipeline(object): def __init__(self): pass @classmethod def from_crawler(cls, crawler): pipeline = cls() crawler.signals.connect(pipeline.spider_opened, signals.spider_opened) crawler.signals.connect(pipeline.spider_closed, signals.spider_closed) return pipeline def spider_opened(self, spider): self.file = open('bbsData.xml', 'wb') self.expoter = XmlItemExporter(self.file) self.expoter.start_exporting() def spider_closed(self, spider): self.expoter.finish_exporting() self.file.close() # process the crawled data, define and call dataProcess function # dataProcess('bbsData.xml', 'text.txt') def process_item(self, item, spider): self.expoter.export_item(item) return item</code></pre> <p>  编写dataProcess.py小工具:</p> <p><a href="http://img.e-com-net.com/image/info8/63e4abcbee2149fa8966f0a3e51925e0.png" target="_blank"><img alt="【爬虫】Scrapy 抓取网站数据_第2张图片" class="has" src="http://img.e-com-net.com/image/info8/63e4abcbee2149fa8966f0a3e51925e0.png" width="567" height="161" style="border:1px solid black;"></a></p> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- """ Created on Fri Jul 20 14:45:01 2018 @author: Administrator """ from lxml import etree # In Python 3, ConfigParser has been renamed to configparser from configparser import ConfigParser class dataProcess: def __init__(self, source_filename, target_filename): # load stop words into the memory. fin = open(source_filename, 'r') read = fin.read() output = open(target_filename, 'w') output.write(read) fin.close() output.close()</code></pre> <h2 id="Settings"><strong>Settings (settings.py)</strong></h2> <p>  Scrapy设定(<code>settings</code>)提供了定制Scrapy组件的方法。您可以控制包括核心(core),插件(extension),pipeline及spider组件。<br>   设定为代码提供了提取以key-value映射的配置值的的全局命名空间(namespace)。 设定可以通过下面介绍的多种机制进行设置。<br>   设定(settings)同时也是选择当前激活的Scrapy项目的方法(如果您有多个的话)。<br>   在<code>setting</code>配置文件中,你可一定以抓取的速率、是否在桌面显示抓取过程信息等。详细请参考内置设定列表请参考 。</p> <p>  为了启用一个<code>Item Pipeline</code>组件,你必须将它的类添加到 <code>ITEM_PIPELINES</code>. 分配给每个类的整型值,确定了他们运行的顺序,item按数字从低到高的顺序,通过pipeline,通常将这些数字定义在0-1000范围内。</p> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- # Scrapy settings for bbsdmoz project # # For simplicity, this file contains only settings considered important or # commonly used. You can find more settings consulting the documentation: # # https://doc.scrapy.org/en/latest/topics/settings.html # https://doc.scrapy.org/en/latest/topics/downloader-middleware.html # https://doc.scrapy.org/en/latest/topics/spider-middleware.html BOT_NAME = 'bbsdmoz' SPIDER_MODULES = ['bbsdmoz.spiders'] NEWSPIDER_MODULE = 'bbsdmoz.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent #USER_AGENT = 'bbsdmoz (+http://www.yourdomain.com)' # Obey robots.txt rules ROBOTSTXT_OBEY = True # Configure maximum concurrent requests performed by Scrapy (default: 16) CONCURRENT_REQUESTS = 32 # Configure a delay for requests for the same website (default: 0) # See https://doc.scrapy.org/en/latest/topics/settings.html#download-delay # See also autothrottle settings and docs #DOWNLOAD_DELAY = 3 # The download delay setting will honor only one of: #CONCURRENT_REQUESTS_PER_DOMAIN = 16 #CONCURRENT_REQUESTS_PER_IP = 16 # Disable cookies (enabled by default) #COOKIES_ENABLED = False # Disable Telnet Console (enabled by default) #TELNETCONSOLE_ENABLED = False # Override the default request headers: #DEFAULT_REQUEST_HEADERS = { # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', # 'Accept-Language': 'en', #} # Enable or disable spider middlewares # See https://doc.scrapy.org/en/latest/topics/spider-middleware.html #SPIDER_MIDDLEWARES = { # 'bbsdmoz.middlewares.BbsdmozSpiderMiddleware': 543, #} # Enable or disable downloader middlewares # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html #DOWNLOADER_MIDDLEWARES = { # 'bbsdmoz.middlewares.BbsdmozDownloaderMiddleware': 543, #} # Enable or disable extensions # See https://doc.scrapy.org/en/latest/topics/extensions.html #EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': None, #} # Configure item pipelines # See https://doc.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'bbsdmoz.pipelines.BbsdmozPipeline': 300, } # Enable and configure the AutoThrottle extension (disabled by default) # See https://doc.scrapy.org/en/latest/topics/autothrottle.html #AUTOTHROTTLE_ENABLED = True # The initial download delay #AUTOTHROTTLE_START_DELAY = 5 # The maximum download delay to be set in case of high latencies #AUTOTHROTTLE_MAX_DELAY = 60 # The average number of requests Scrapy should be sending in parallel to # each remote server #AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # Enable showing throttling stats for every response received: #AUTOTHROTTLE_DEBUG = False # Enable and configure HTTP caching (disabled by default) # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings #HTTPCACHE_ENABLED = True #HTTPCACHE_EXPIRATION_SECS = 0 #HTTPCACHE_DIR = 'httpcache' #HTTPCACHE_IGNORE_HTTP_CODES = [] #HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'</code></pre> <h2 id="Crawling"><strong>Crawling</strong></h2> <p>  写好爬虫程序后,我们就可以运行程序抓取数据。进入项目的根目录<code>bbsDomz/</code>下,执行下列命令启动spider (会爬很久):</p> <pre class="has"><code class="language-bash">scrapy crawl bbsSpider</code></pre> <p>【完整代码】</p> <ul> <li>dataProcess.py</li> </ul> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- """ Created on Fri Jul 20 14:45:01 2018 @author: Administrator """ from lxml import etree # In Python 3, ConfigParser has been renamed to configparser from configparser import ConfigParser class dataProcess: def __init__(self, source_filename, target_filename): # load stop words into the memory. fin = open(source_filename, 'r') read = fin.read() output = open(target_filename, 'w') output.write(read) fin.close() output.close()</code></pre> <ul> <li>settings.py</li> </ul> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- # Scrapy settings for bbsdmoz project # # For simplicity, this file contains only settings considered important or # commonly used. You can find more settings consulting the documentation: # # https://doc.scrapy.org/en/latest/topics/settings.html # https://doc.scrapy.org/en/latest/topics/downloader-middleware.html # https://doc.scrapy.org/en/latest/topics/spider-middleware.html BOT_NAME = 'bbsdmoz' SPIDER_MODULES = ['bbsdmoz.spiders'] NEWSPIDER_MODULE = 'bbsdmoz.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent #USER_AGENT = 'bbsdmoz (+http://www.yourdomain.com)' # Obey robots.txt rules ROBOTSTXT_OBEY = True # Configure maximum concurrent requests performed by Scrapy (default: 16) CONCURRENT_REQUESTS = 32 # Configure a delay for requests for the same website (default: 0) # See https://doc.scrapy.org/en/latest/topics/settings.html#download-delay # See also autothrottle settings and docs #DOWNLOAD_DELAY = 3 # The download delay setting will honor only one of: #CONCURRENT_REQUESTS_PER_DOMAIN = 16 #CONCURRENT_REQUESTS_PER_IP = 16 # Disable cookies (enabled by default) #COOKIES_ENABLED = False # Disable Telnet Console (enabled by default) #TELNETCONSOLE_ENABLED = False # Override the default request headers: #DEFAULT_REQUEST_HEADERS = { # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', # 'Accept-Language': 'en', #} # Enable or disable spider middlewares # See https://doc.scrapy.org/en/latest/topics/spider-middleware.html #SPIDER_MIDDLEWARES = { # 'bbsdmoz.middlewares.BbsdmozSpiderMiddleware': 543, #} # Enable or disable downloader middlewares # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html #DOWNLOADER_MIDDLEWARES = { # 'bbsdmoz.middlewares.BbsdmozDownloaderMiddleware': 543, #} # Enable or disable extensions # See https://doc.scrapy.org/en/latest/topics/extensions.html #EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': None, #} # Configure item pipelines # See https://doc.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'bbsdmoz.pipelines.BbsdmozPipeline': 300, } # Enable and configure the AutoThrottle extension (disabled by default) # See https://doc.scrapy.org/en/latest/topics/autothrottle.html #AUTOTHROTTLE_ENABLED = True # The initial download delay #AUTOTHROTTLE_START_DELAY = 5 # The maximum download delay to be set in case of high latencies #AUTOTHROTTLE_MAX_DELAY = 60 # The average number of requests Scrapy should be sending in parallel to # each remote server #AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # Enable showing throttling stats for every response received: #AUTOTHROTTLE_DEBUG = False # Enable and configure HTTP caching (disabled by default) # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings #HTTPCACHE_ENABLED = True #HTTPCACHE_EXPIRATION_SECS = 0 #HTTPCACHE_DIR = 'httpcache' #HTTPCACHE_IGNORE_HTTP_CODES = [] #HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'</code></pre> <ul> <li>pipelines.py</li> </ul> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html from scrapy import signals from scrapy import log from bbsdmoz.items import BbsItem from twisted.enterprise import adbapi from scrapy.contrib.exporter import XmlItemExporter from dataProcess import dataProcess class BbsdmozPipeline(object): def __init__(self): pass @classmethod def from_crawler(cls, crawler): pipeline = cls() crawler.signals.connect(pipeline.spider_opened, signals.spider_opened) crawler.signals.connect(pipeline.spider_closed, signals.spider_closed) return pipeline def spider_opened(self, spider): self.file = open('bbsData.xml', 'wb') self.expoter = XmlItemExporter(self.file) self.expoter.start_exporting() def spider_closed(self, spider): self.expoter.finish_exporting() self.file.close() # process the crawled data, define and call dataProcess function # dataProcess('bbsData.xml', 'text.txt') def process_item(self, item, spider): self.expoter.export_item(item) return item</code></pre> <ul> <li>items.py</li> </ul> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # https://doc.scrapy.org/en/latest/topics/items.html from scrapy.item import Item, Field class BbsItem(Item): # define the fields for your item here like: # name = scrapy.Field() url = Field() forum = Field() poster = Field() content = Field()</code></pre> <ul> <li>forumSpider.py</li> </ul> <pre class="has"><code class="language-python"># -*- coding: utf-8 -*- """ Created on Fri Jul 20 13:18:58 2018 @author: Administrator """ from scrapy.selector import Selector from scrapy.http import Request from scrapy.contrib.spiders import CrawlSpider from scrapy.contrib.loader import ItemLoader #SGMLParser based link extractors are unmantained and its usage is discouraged. It is recommended to migrate to LxmlLinkExtractor #from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor from scrapy.contrib.linkextractors.lxmlhtml import LxmlLinkExtractor from bbsdmoz.items import BbsItem class forumSpider(CrawlSpider): # name of spiders name = 'bbsSpider' allow_domain = ['bbs.sjtu.edu.cn'] start_urls = [ 'https://bbs.sjtu.edu.cn/bbsall' ] link_extractor = { 'page': LxmlLinkExtractor(allow = '/bbsdoc,board,\w+\.html$'), 'page_down': LxmlLinkExtractor(allow = '/bbsdoc,board,\w+,page,\d+\.html$'), 'content': LxmlLinkExtractor(allow = '/bbscon,board,\w+,file,M\.\d+\.A\.html$'), } _x_query = { 'page_content': '//pre/text()[2]', 'poster' : '//pre/a/text()', 'forum' : '//center/text()[2]', } def parse(self, response): for link in self.link_extractor['page'].extract_links(response): yield Request(url = link.url, callback=self.parse_page) def parse_page(self, response): for link in self.link_extractor['page_down'].extract_links(response): yield Request(url = link.url, callback=self.parse_page) for link in self.link_extractor['content'].extract_links(response): yield Request(url = link.url, callback=self.parse_content) def parse_content(self, response): bbsItem_loader = ItemLoader(item=BbsItem(), response = response) url = str(response.url) bbsItem_loader.add_value('url', url) bbsItem_loader.add_xpath('forum', self._x_query['forum']) bbsItem_loader.add_xpath('poster', self._x_query['poster']) bbsItem_loader.add_xpath('content', self._x_query['page_content']) return bbsItem_loader.load_item()</code></pre> <p>The end.</p> </div> </div> </div> </div> </div> <!--PC和WAP自适应版--> <div id="SOHUCS" sid="1294241576125538304"></div> <script type="text/javascript" src="/views/front/js/chanyan.js"></script> <!-- 文章页-底部 动态广告位 --> <div class="youdao-fixed-ad" id="detail_ad_bottom"></div> </div> <div class="col-md-3"> <div class="row" id="ad"> <!-- 文章页-右侧1 动态广告位 --> <div id="right-1" class="col-lg-12 col-md-12 col-sm-4 col-xs-4 ad"> <div class="youdao-fixed-ad" id="detail_ad_1"> </div> </div> <!-- 文章页-右侧2 动态广告位 --> <div id="right-2" class="col-lg-12 col-md-12 col-sm-4 col-xs-4 ad"> <div class="youdao-fixed-ad" id="detail_ad_2"></div> </div> <!-- 文章页-右侧3 动态广告位 --> <div id="right-3" class="col-lg-12 col-md-12 col-sm-4 col-xs-4 ad"> <div class="youdao-fixed-ad" id="detail_ad_3"></div> </div> </div> </div> </div> </div> </div> <div class="container"> <h4 class="pt20 mb15 mt0 border-top">你可能感兴趣的:(Scrapy,Python,爬虫)</h4> <div id="paradigm-article-related"> <div class="recommend-post mb30"> <ul class="widget-links"> <li><a href="/article/1883484290256269312.htm" title="python链接hbase模块_Python连接Hbase" target="_blank">python链接hbase模块_Python连接Hbase</a> <span class="text-muted">weixin_40001395</span> <a class="tag" taget="_blank" href="/search/python%E9%93%BE%E6%8E%A5hbase%E6%A8%A1%E5%9D%97/1.htm">python链接hbase模块</a> <div>1、安装Hbase库pipinstallhappybase2、连接Hbase2.1、查看Hbase配置image.png2.2、使用happyhase连接hbaseimporthappybase#注意protocol和transport这两个参数,需要和hbase启动命令中的相同,否则会报错connection=happybase.Connection('qa-cdh-001',port=9090</div> </li> <li><a href="/article/1883484037167771648.htm" title="python的应用领域主要有_Python的应用领域有哪些?" target="_blank">python的应用领域主要有_Python的应用领域有哪些?</a> <span class="text-muted">weixin_39658966</span> <a class="tag" taget="_blank" href="/search/python%E7%9A%84%E5%BA%94%E7%94%A8%E9%A2%86%E5%9F%9F%E4%B8%BB%E8%A6%81%E6%9C%89/1.htm">python的应用领域主要有</a> <div>Python的应用领域有哪些?Python是一门简单、易学并且很有前途的编程语言,很多人都对Python感兴趣,但是当学完Python基础用法之后,又会产生迷茫,尤其是自学的人员,不知道接下来的Python学习方向,以及学完之后能干些什么?以下是Python十大应用领域!1.WEB开发Python拥有很多免费数据函数库、免费web网页模板系统、以及与web服务器进行交互的库,可以实现web开发,搭</div> </li> <li><a href="/article/1883484036748341248.htm" title="安卓python安装库_安卓termux折腾手记:安装python库+tasker调用" target="_blank">安卓python安装库_安卓termux折腾手记:安装python库+tasker调用</a> <span class="text-muted">weixin_39628380</span> <a class="tag" taget="_blank" href="/search/%E5%AE%89%E5%8D%93python%E5%AE%89%E8%A3%85%E5%BA%93/1.htm">安卓python安装库</a> <div>1.termux简介1.1简介termux是安卓手机上的一款软件,相当于在安卓上搭建了一个Linux平台,所以在Linux上能干的事情很多在手机上也都办得到,比如本文就是介绍与python相关的内容。实际上,得益于安卓平台的开放性,类似termux的手机神器着实不少。不说各类强大的编程IDE,单是termux这样的Linux平台类软件就很多,如GnuRoot系列,LinuxDisplay系列等。这</div> </li> <li><a href="/article/1883483658703138816.htm" title="termux使用教程python-Termux折腾记--进阶之python库使用" target="_blank">termux使用教程python-Termux折腾记--进阶之python库使用</a> <span class="text-muted">weixin_37988176</span> <div>sshdTermux超级终端折腾记Termux超级终端的牛x之处我就不在这里描述了。这次讲的是如何在android手机上安装python的各种科学库和图形库。Jupyter是这次介绍的重点对象,先卖个关子,不忙介绍它。1.Termux超级终端下载Termux的下载链接极其介绍见我的其他博文2.安装python这一步只是作为一个提示,因为现在你不管是装Linux终端还是linux完整发行版,pyth</div> </li> <li><a href="/article/1883483532387479552.htm" title="python packge index 的使用" target="_blank">python packge index 的使用</a> <span class="text-muted">weixin_34199335</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E5%B7%A5%E5%85%B7/1.htm">开发工具</a> <div>pythonpackgeindex(PyPI)是Python编程语言的软件存储库。可用下载各种常用库,以及自己制作并上传库官方网站https://pypi.python.org安装pip3installpymysql安装完的库在python根目录下的lib\sitepackgs\目录下如果需要在命令行窗口直接运行pip3需要配置python根目录下的script目录为环境变量转载于:https:/</div> </li> <li><a href="/article/1883482902147166208.htm" title="精通Python (21)" target="_blank">精通Python (21)</a> <span class="text-muted">码商行者</span> <a class="tag" taget="_blank" href="/search/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/1.htm">人工智能</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/1.htm">人工智能</a> <div>Python语言进阶之并发编程Python中实现并发编程的三种方案:多线程、多进程和异步I/O。并发编程的好处在于可以提升程序的执行效率以及改善用户体验;坏处在于并发的程序不容易开发和调试,同时对其他程序来说它并不友好。一,多线程Python中提供了Thread类并辅以Lock、Condition、Event、Semaphore和Barrier。Python中有GIL来防止多个线程同时执行本地字节</div> </li> <li><a href="/article/1883482649964638208.htm" title="搭建本地Python Package Index(pypi)源" target="_blank">搭建本地Python Package Index(pypi)源</a> <span class="text-muted">tmpbook</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a> <div>准备一台有外网的机器:nginxpython>=2.7(needreadline-devel,sqlite-devel)1.安装pip2pipipinstallpip2pi2.创建存放软件包的仓库mkdir-d/opt/python/soft/pypi.kevingao.net/3.下载某个包和某些包并建立索引单独下载pip2tgz/opt/python/soft/pypi.kevingao.ne</div> </li> <li><a href="/article/1883481011409448960.htm" title="python 语音识别" target="_blank">python 语音识别</a> <span class="text-muted">柚梓sir</span> <a class="tag" taget="_blank" href="/search/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/1.htm">神经网络</a><a class="tag" taget="_blank" href="/search/%E8%AF%AD%E9%9F%B3%E8%AF%86%E5%88%AB/1.htm">语音识别</a><a class="tag" taget="_blank" href="/search/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/1.htm">人工智能</a> <div>在python中训练一个语音识别系统主要需要以下几个步骤:-语料库准备-数据预处理-特征提取-训练模型第一部分:语料库的准备什么是语料库?语料库长什么样?语料库由两部分组成,第一部分是语音,第二部分是玉莹的标注,通常为字符形式。本次项目中,我们选用的语料库是THCHS-30,这个语料库是在安静的办公室环境下,由录音人员用普通话朗读新闻的语音作为数据,总时长超过30个小时。我们利用语料库,构造转换字</div> </li> <li><a href="/article/1883480757482090496.htm" title="python操作HBase" target="_blank">python操作HBase</a> <span class="text-muted">王壮_</span> <a class="tag" taget="_blank" href="/search/%E5%A4%A7%E6%95%B0%E6%8D%AE/1.htm">大数据</a><a class="tag" taget="_blank" href="/search/Python/1.htm">Python</a><a class="tag" taget="_blank" href="/search/hbase/1.htm">hbase</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%BA%93/1.htm">数据库</a><a class="tag" taget="_blank" href="/search/%E5%A4%A7%E6%95%B0%E6%8D%AE/1.htm">大数据</a> <div>1.安装happybase和thriftpipinstallhappybasepipinstallthrift2.启动hbase的thrift进程,并指定端口9090hbase-daemon.shstartthrift-p90903.操作HBaseimporthappybaseconnection=happybase.Connection(host='hadoop10',port=9090)tab</div> </li> <li><a href="/article/1883476091276947456.htm" title="字符串 5. 实现 strStr() (KMP算法初探)" target="_blank">字符串 5. 实现 strStr() (KMP算法初探)</a> <span class="text-muted">Mophead_Zarathustra</span> <a class="tag" taget="_blank" href="/search/Mophead%E7%9A%84%E5%B0%8F%E7%99%BD%E5%88%B7%E9%A2%98%E7%AC%94%E8%AE%B0/1.htm">Mophead的小白刷题笔记</a><a class="tag" taget="_blank" href="/search/leetcode/1.htm">leetcode</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E4%BB%A3%E7%A0%81%E9%9A%8F%E6%83%B3%E5%BD%95/1.htm">代码随想录</a><a class="tag" taget="_blank" href="/search/%E5%AD%97%E7%AC%A6%E4%B8%B2/1.htm">字符串</a><a class="tag" taget="_blank" href="/search/KMP%E7%AE%97%E6%B3%95/1.htm">KMP算法</a> <div>字符串5.实现strStr()(KMP算法初探)28.找出字符串中第一个匹配项的下标-力扣(LeetCode)代码随想录难度3-简单(但是个人觉得用KMP算法解决并不简单)(可以直接拉到最后看KMP算法的python实现,已做好详细注释,可结合注释进行理解)看题目感觉用python不难实现,因此直接给出代码如下:代码v1,利用python的字符串比较:classSolution:defstrStr</div> </li> <li><a href="/article/1883474454219124736.htm" title="PyPi 是什么" target="_blank">PyPi 是什么</a> <span class="text-muted">HoneyMoose</span> <a class="tag" taget="_blank" href="/search/CS/1.htm">CS</a> <div>pypi是PythonPackageIndex的首字母简写,其实表示的是Python的Packag索引,这个也是Python的官方索引。你需要的包(Package)基本上都可以从这里面找到。作为开源软件,你也希望能够贡献你的Package到这里供其他用户使用。我们举个栗子,如果你希望你的Python程序能够下载金融数据,目前比较好用的金融数据来源是Yahoo和Google。你可能需要读取这2个平台</div> </li> <li><a href="/article/1883465630473056256.htm" title="华为OD机试E卷 --字符串化繁为简 --24年OD统一考试(Java & JS & Python & C & C++)" target="_blank">华为OD机试E卷 --字符串化繁为简 --24年OD统一考试(Java & JS & Python & C & C++)</a> <span class="text-muted">飞码创造者</span> <a class="tag" taget="_blank" href="/search/%E6%9C%80%E6%96%B0%E5%8D%8E%E4%B8%BAOD%E6%9C%BA%E8%AF%95%E9%A2%98%E5%BA%932024/1.htm">最新华为OD机试题库2024</a><a class="tag" taget="_blank" href="/search/%E5%8D%8E%E4%B8%BAod/1.htm">华为od</a><a class="tag" taget="_blank" href="/search/java/1.htm">java</a><a class="tag" taget="_blank" href="/search/javascript/1.htm">javascript</a><a class="tag" taget="_blank" href="/search/c%E8%AF%AD%E8%A8%80/1.htm">c语言</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a> <div>文章目录题目描述输入描述输出描述用例题目解析JS算法源码Java算法源码python算法源码c++算法源码题目描述给定一个输入字符串,字符串只可能由英文字母(az、AZ)和左右小括号(、)组成当字符里存在小括号时,小括号是成对的,可以有一个或多个小括号对,小括号对不会嵌套,小括号对内可以包含1个或多个英文字母也可以不包含英文字母。当小括号对内包含多个英文字母时,这些字母之间是相互等效的关系,而且等</div> </li> <li><a href="/article/1883460338658111488.htm" title="Python数据分析之共享单车及建模探索(CLV建模、可视化)" target="_blank">Python数据分析之共享单车及建模探索(CLV建模、可视化)</a> <span class="text-muted">weixin_46205203</span> <a class="tag" taget="_blank" href="/search/%E7%AC%94%E8%AE%B0/1.htm">笔记</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90/1.htm">数据分析</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%BB%BA%E6%A8%A1/1.htm">数据建模</a> <div>Python数据分析之共享单车及建模探索(CLV建模、可视化)开发环境4.3【开发平台及环境】Windons10教育版Python3.7IntelliJIDEA2018.2.1/PyCharmGoogeChrome数据清洗分析模块pandas,numpy可视化模块matplotlib上期原创:Python数据分析之智联招聘职位分析完整项目(数据爬取,数据分析,数据可视化)链接:https://bl</div> </li> <li><a href="/article/1883457060016812032.htm" title="python中!ls -r_光学现象的Python实现" target="_blank">python中!ls -r_光学现象的Python实现</a> <span class="text-muted">weixin_39838798</span> <a class="tag" taget="_blank" href="/search/python%E4%B8%AD%21ls/1.htm">python中!ls</a><a class="tag" taget="_blank" href="/search/-r/1.htm">-r</a> <div>“Youwillseelightinthedarkness。Youwillmakesomesenseofthis.”“你终将于黑暗中触摸白昼,它将如影般随行。”如果说20世纪是电子的世界,那么21世纪就是光学的舞台。光学和光子学无处不在:智能手机和计算设备上的显示方式,互联网中承载信息的光纤,先进的精密制造,大量的生物医学应用终端,全光衍射神经网络等。对光学的深入理解为每一个学习物理和工程的同学带</div> </li> <li><a href="/article/1883454283152683008.htm" title="xgboost在spark集群使用指南" target="_blank">xgboost在spark集群使用指南</a> <span class="text-muted">一颗小草333</span> <a class="tag" taget="_blank" href="/search/%E7%AE%97%E6%B3%95/1.htm">算法</a><a class="tag" taget="_blank" href="/search/mapreduce/1.htm">mapreduce</a><a class="tag" taget="_blank" href="/search/spark/1.htm">spark</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E6%8C%96%E6%8E%98/1.htm">数据挖掘</a> <div>简介XGBoost是一个优化的分布式梯度增强库,具有高效、灵活和可移植性。在梯度增强框架下实现了机器学习算法。XGBoost提供了一种并行树增强(也称为GBDT、GBM),可以快速、准确地解决许多数据科学问题。相同的代码在主要的分布式环境(Hadoop、SGE、MPI)上运行,可以解决数十亿个示例的训练问题。xgb相对于gbt所做的改进:1.2.3.XGBoost可以使用R、python、java</div> </li> <li><a href="/article/1883449997194752000.htm" title="python实战项目27:boss直聘招聘数据可视化分析" target="_blank">python实战项目27:boss直聘招聘数据可视化分析</a> <span class="text-muted">wp_tao</span> <a class="tag" taget="_blank" href="/search/Python%E5%89%AF%E4%B8%9A%E6%8E%A5%E5%8D%95%E5%AE%9E%E6%88%98%E9%A1%B9%E7%9B%AE/1.htm">Python副业接单实战项目</a><a class="tag" taget="_blank" href="/search/%E4%BF%A1%E6%81%AF%E5%8F%AF%E8%A7%86%E5%8C%96/1.htm">信息可视化</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90/1.htm">数据分析</a> <div>boss直聘招聘数据可视化分析一、数据预处理二、数据可视化三、完整代码一、数据预处理在上一篇博客中,笔者已经详细介绍了使用selenium爬取南昌市web前端工程师的招聘岗位数据,数据格式如下:这里主要对薪水列进行处理,为方便处理,将日薪和周薪的数据删除,将带有13薪和14薪的数据也删除,计算出最低薪资、最高薪资和平均薪资三列。数据预处理代码如下:importpandasaspddf=pd.rea</div> </li> <li><a href="/article/1883449616985288704.htm" title="Python 3 中使用 SMTP 发送邮件:高级技巧与应用" target="_blank">Python 3 中使用 SMTP 发送邮件:高级技巧与应用</a> <span class="text-muted">三带俩王</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E7%BD%91%E7%BB%9C/1.htm">网络</a><a class="tag" taget="_blank" href="/search/%E6%9C%8D%E5%8A%A1%E5%99%A8/1.htm">服务器</a> <div>在现代的软件开发和自动化流程中,发送电子邮件是一项常见的任务。Python3提供了强大的工具来实现这一功能,特别是通过使用SMTP(SimpleMailTransferProtocol)协议。本文将深入探讨Python3中使用SMTP发送邮件的高级用法,展示其在不同场景下的灵活性和强大功能。一、SMTP简介SMTP是一种用于发送电子邮件的协议。它允许客户端(如Python程序)与邮件服务器进行通信</div> </li> <li><a href="/article/1883449617849315328.htm" title="Python 在股票分析中的高级应用:挖掘金融数据的深度洞察" target="_blank">Python 在股票分析中的高级应用:挖掘金融数据的深度洞察</a> <span class="text-muted">三带俩王</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E9%87%91%E8%9E%8D/1.htm">金融</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a> <div>在当今的金融世界中,股票分析是投资者和金融从业者必备的技能。Python作为一种强大且灵活的编程语言,为股票分析提供了丰富的工具和技术。本文将深入探讨使用Python进行股票分析的高级用法,涵盖从数据获取与清洗、高级分析指标计算到机器学习和深度学习在股票分析中的应用等多个方面。一、数据获取与预处理:构建坚实的分析基础1.数据来源与获取直接从证券交易所获取数据:许多证券交易所提供了数据接口,例如,上</div> </li> <li><a href="/article/1883449616389697536.htm" title="Python 中的complex(real[, imag])函数:高级用法与强大功能" target="_blank">Python 中的complex(real[, imag])函数:高级用法与强大功能</a> <span class="text-muted">三带俩王</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a><a class="tag" taget="_blank" href="/search/%E7%AE%97%E6%B3%95/1.htm">算法</a> <div>在Python中,complex(real[,imag])函数是一个用于创建复数的强大工具。复数在数学、物理学、工程学等领域中有着广泛的应用,而Python的complex类型为我们提供了便捷的方式来处理复数。本文将深入探讨complex(real[,imag])函数的高级用法,展示其在不同场景下的强大功能。一、复数的基本概念复数是由实数和虚数组成的数,通常表示为a+bj的形式,其中a和b是实数,</div> </li> <li><a href="/article/1883447092479848448.htm" title="python 利用 ddddocr包 ocr识别图片码" target="_blank">python 利用 ddddocr包 ocr识别图片码</a> <span class="text-muted">风_流沙</span> <a class="tag" taget="_blank" href="/search/python%E5%B7%A5%E5%85%B7%E5%A4%87%E5%BF%98%E5%BD%95/1.htm">python工具备忘录</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/ocr/1.htm">ocr</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a> <div>ddddocr是一个轻量级的OCR(光学字符识别)库,适用于识别图片中的文字,包括验证码等图像文本。要使用ddddocr进行图片验证码的识别,可以按照以下步骤进行:1.安装ddddocr包首先,你需要安装ddddocr包。你可以使用pip安装:pipinstallddddocr2.使用ddddocr进行OCR识别importddddocr#创建OCR对象ocr=ddddocr.DdddOcr()#</div> </li> <li><a href="/article/1883441040359223296.htm" title="计算机毕业设计之基于PythonBOSS直聘招聘数据可视化系统的设计与实现" target="_blank">计算机毕业设计之基于PythonBOSS直聘招聘数据可视化系统的设计与实现</a> <span class="text-muted">wx—bishe58</span> <a class="tag" taget="_blank" href="/search/%E4%BF%A1%E6%81%AF%E5%8F%AF%E8%A7%86%E5%8C%96/1.htm">信息可视化</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90/1.htm">数据分析</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E6%8C%96%E6%8E%98/1.htm">数据挖掘</a><a class="tag" taget="_blank" href="/search/rnn/1.htm">rnn</a><a class="tag" taget="_blank" href="/search/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/1.htm">人工智能</a><a class="tag" taget="_blank" href="/search/%E8%AF%BE%E7%A8%8B%E8%AE%BE%E8%AE%A1/1.htm">课程设计</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a> <div>本文主要介绍了基于PythonBOSS直聘招聘数据可视化系统的设计与实现。随着互联网的普及,BOSS直聘招聘网站成为了企业和求职者的重要交流平台。然而,大量的招聘信息给用户带来了信息过载的问题。为了解决这一问题,本文提出了一种基于PythonBOSS直聘招聘数据可视化系统的设计与实现方法。首先,本文采用爬虫技术收集了拉勾BOSS直聘招聘网站上的大量招聘信息。然后,利用爬虫优化算法对爬取到的数据进行</div> </li> <li><a href="/article/1883437888981495808.htm" title="Python 中的异常处理:try except Exception as e" target="_blank">Python 中的异常处理:try except Exception as e</a> <span class="text-muted">三带俩王</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a> <div>在Python编程中,异常处理是一项至关重要的技能,它可以帮助我们提高程序的稳定性和可靠性。其中,tryexceptExceptionase语句是一种常见的异常处理方式。在这篇博客中,我们将深入探讨这个语句的要点和高级用法。一、异常处理的重要性在编程过程中,错误是不可避免的。这些错误可能是由于用户输入错误、文件不存在、网络连接问题等原因引起的。如果我们不处理这些错误,程序可能会崩溃,导致数据丢失或</div> </li> <li><a href="/article/1883436502772412416.htm" title="python中的CSV模块" target="_blank">python中的CSV模块</a> <span class="text-muted">一粒微尘_1</span> <a class="tag" taget="_blank" href="/search/Python%E5%9F%BA%E7%A1%80/1.htm">Python基础</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a><a class="tag" taget="_blank" href="/search/%E5%90%8E%E7%AB%AF/1.htm">后端</a> <div>1、查询CSV模块中都有哪些函数和功能?①通过dir()函数查询CSV模块都有哪些函数importcsvforiindir(csv):print(i)②搜索CSV模块的官方教程’https://docs.python.org/3.6/library/csv.html‘③搜索中文教材’https://yiyibooks.cn/xx/python_352/library/csv.html#module</div> </li> <li><a href="/article/1883436375773081600.htm" title="python爱心代码高级" target="_blank">python爱心代码高级</a> <span class="text-muted">youyouxiong</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a> <div>在Python中,绘制爱心图案可以通过多种方式实现,包括使用turtle模块、matplotlib库或者PIL库。以下是一些使用这些库绘制爱心的高级方法:使用turtle模块绘制动画爱心importturtleimportmathdefdraw_heart(t,size):""“绘制爱心的函数”""t.begin_fill()a=2*math.pit.circle(size,a/2)t.circl</div> </li> <li><a href="/article/1883436123565387776.htm" title="Python李峋同款跳动的爱心代码(可写字版)" target="_blank">Python李峋同款跳动的爱心代码(可写字版)</a> <span class="text-muted">雪碧没气阿</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%BA%93/1.htm">数据库</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a><a class="tag" taget="_blank" href="/search/ide/1.htm">ide</a><a class="tag" taget="_blank" href="/search/webstorm/1.htm">webstorm</a><a class="tag" taget="_blank" href="/search/%E7%88%AC%E8%99%AB/1.htm">爬虫</a> <div>一年前小编曾用python编写过跳动的爱心代码,不知道有多少小伙伴们已经学会了呢,最近小编在用c语言和java编写跳动的爱心的时候,发现之前用python编写跳动的爱心时没有添加文字,这不,小编立马翻出之前的代码一顿操作,给大家带来了更新后的爱心,快来看看趴~(附详细分析哦)环境PythonPyCharm跳动的爱心运行结果完整程序importtkinterastkimporttkinter.mes</div> </li> <li><a href="/article/1883433099480592384.htm" title="Apache Airflow 2.1.2:开源工作流管理系统的全面指南" target="_blank">Apache Airflow 2.1.2:开源工作流管理系统的全面指南</a> <span class="text-muted">銀河鐵道的企鵝</span> <div>本文还有配套的精品资源,点击获取简介:ApacheAirflow2.1.2是一个开源的工作流管理系统,用于编排、调度和监控复杂的业务逻辑。它基于DAG(有向无环图)概念,通过Python代码定义任务的Operator,定义任务的执行顺序和条件。该版本提供了任务调度、监控、错误处理、插件扩展和多环境管理等核心功能。解压后包含许可证文件、文档和源代码目录等,且介绍了安装和运行步骤。Airflow适用于</div> </li> <li><a href="/article/1883432594289258496.htm" title="python无法启动此程序因为_(python shell怎么用)为啥我按照python安装教程,总说无法启动此程序,因为计算机中丢失?..." target="_blank">python无法启动此程序因为_(python shell怎么用)为啥我按照python安装教程,总说无法启动此程序,因为计算机中丢失?...</a> <span class="text-muted">weixin_39540023</span> <a class="tag" taget="_blank" href="/search/python%E6%97%A0%E6%B3%95%E5%90%AF%E5%8A%A8%E6%AD%A4%E7%A8%8B%E5%BA%8F%E5%9B%A0%E4%B8%BA/1.htm">python无法启动此程序因为</a> <div>python3.8遍历整个列表?你打印的是colorprint(color)不对应该是magician为啥我按照python安装教程,总说无法启动此程序,因为计算机中丢失?这是你windows操作文件丢失的,和python无关。首先去网上搜索下载api-ms-win-crt-process-l1-1-0.dll文件载完毕后,把dll文件放到C:\Windows\System32下即可。如果下载的d</div> </li> <li><a href="/article/1883432215757516800.htm" title="举例说明Python的CSV模块" target="_blank">举例说明Python的CSV模块</a> <span class="text-muted">weixin_30556161</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a> <div>举例说明Python的CSV模块byGaryJia—上次修改时间:2007-11-3017:28文章标签pythonzope举几个例子来介绍一下,Python的CSV模块的使用方法,包括,reader,writer,DictReader,DictWriter.register_dialect一直非常喜欢python的csv模块,简单易用,经常在项目中使用,现在举几个例子说明一下。reader(cs</div> </li> <li><a href="/article/1883431837758451712.htm" title="Python爬虫实战:解析京东商品信息(附部分源码)" target="_blank">Python爬虫实战:解析京东商品信息(附部分源码)</a> <span class="text-muted">是有头发的程序猿</span> <a class="tag" taget="_blank" href="/search/API/1.htm">API</a><a class="tag" taget="_blank" href="/search/API%E6%8E%A5%E5%8F%A3/1.htm">API接口</a><a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E7%88%AC%E8%99%AB/1.htm">爬虫</a><a class="tag" taget="_blank" href="/search/%E5%BC%80%E5%8F%91%E8%AF%AD%E8%A8%80/1.htm">开发语言</a> <div>在信息爆炸的今天,网络爬虫(WebScraping)作为一种自动获取网页内容的技术,已经成为数据采集的重要手段。Python,因其简洁的语法和强大的库支持,成为编写爬虫的首选语言之一。本文将通过一个实战案例,展示如何使用Python编写爬虫,以京东商品页面为例,解析商品信息。环境准备在开始编写爬虫之前,需要准备以下环境和工具:Python3.x网络请求库:requestsHTML解析库:Beaut</div> </li> <li><a href="/article/1883430954467389440.htm" title="90、Python Web抓取与数据爬虫:技巧、实践与道德规范" target="_blank">90、Python Web抓取与数据爬虫:技巧、实践与道德规范</a> <span class="text-muted">多多的编程笔记</span> <a class="tag" taget="_blank" href="/search/python/1.htm">python</a><a class="tag" taget="_blank" href="/search/%E5%89%8D%E7%AB%AF/1.htm">前端</a><a class="tag" taget="_blank" href="/search/%E7%88%AC%E8%99%AB/1.htm">爬虫</a> <div>Python开发:学习Web抓取和数据爬虫大家好,今天我将向大家介绍Python的Web抓取和数据爬虫技术,主要包括BeautifulSoup和Scrapy两个库。在此之前,请大家先思考一个问题:为什么我们需要Web抓取和数据爬虫?为什么需要Web抓取和数据爬虫?在互联网时代,数据量呈爆炸式增长,但并不是所有数据都易于获取。很多时候,我们需要从网站上获取数据,这就需要用到Web抓取和数据爬虫技术。</div> </li> <li><a href="/article/120.htm" title="web前段跨域nginx代理配置" target="_blank">web前段跨域nginx代理配置</a> <span class="text-muted">刘正强</span> <a class="tag" taget="_blank" href="/search/nginx/1.htm">nginx</a><a class="tag" taget="_blank" href="/search/cms/1.htm">cms</a><a class="tag" taget="_blank" href="/search/Web/1.htm">Web</a> <div>nginx代理配置可参考server部分 server {         listen       80;         server_name  localhost; </div> </li> <li><a href="/article/247.htm" title="spring学习笔记" target="_blank">spring学习笔记</a> <span class="text-muted">caoyong</span> <a class="tag" taget="_blank" href="/search/spring/1.htm">spring</a> <div>一、概述     a>、核心技术 : IOC与AOP b>、开发为什么需要面向接口而不是实现     接口降低一个组件与整个系统的藕合程度,当该组件不满足系统需求时,可以很容易的将该组件从系统中替换掉,而不会对整个系统产生大的影响 c>、面向接口编口编程的难点在于如何对接口进行初始化,(使用工厂设计模式) </div> </li> <li><a href="/article/374.htm" title="Eclipse打开workspace提示工作空间不可用" target="_blank">Eclipse打开workspace提示工作空间不可用</a> <span class="text-muted">0624chenhong</span> <a class="tag" taget="_blank" href="/search/eclipse/1.htm">eclipse</a> <div>做项目的时候,难免会用到整个团队的代码,或者上一任同事创建的workspace, 1.电脑切换账号后,Eclipse打开时,会提示Eclipse对应的目录锁定,无法访问,根据提示,找到对应目录,G:\eclipse\configuration\org.eclipse.osgi\.manager,其中文件.fileTableLock提示被锁定。 解决办法,删掉.fileTableLock文件,重</div> </li> <li><a href="/article/501.htm" title="Javascript 面向对面写法的必要性?" target="_blank">Javascript 面向对面写法的必要性?</a> <span class="text-muted">一炮送你回车库</span> <a class="tag" taget="_blank" href="/search/JavaScript/1.htm">JavaScript</a> <div>现在Javascript面向对象的方式来写页面很流行,什么纯javascript的mvc框架都出来了:ember 这是javascript层的mvc框架哦,不是j2ee的mvc框架   我想说的是,javascript本来就不是一门面向对象的语言,用它写出来的面向对象的程序,本身就有些别扭,很多人提到js的面向对象首先提的是:复用性。那么我请问你写的js里有多少是可以复用的,用fu</div> </li> <li><a href="/article/628.htm" title="js array对象的迭代方法" target="_blank">js array对象的迭代方法</a> <span class="text-muted">换个号韩国红果果</span> <a class="tag" taget="_blank" href="/search/array/1.htm">array</a> <div>1.forEach 该方法接受一个函数作为参数, 对数组中的每个元素 使用该函数  return 语句失效 function square(num) { print(num, num * num); } var nums = [1,2,3,4,5,6,7,8,9,10]; nums.forEach(square); 2.every 该方法接受一个返回值为布尔类型</div> </li> <li><a href="/article/755.htm" title="对Hibernate缓存机制的理解" target="_blank">对Hibernate缓存机制的理解</a> <span class="text-muted">归来朝歌</span> <a class="tag" taget="_blank" href="/search/session/1.htm">session</a><a class="tag" taget="_blank" href="/search/%E4%B8%80%E7%BA%A7%E7%BC%93%E5%AD%98/1.htm">一级缓存</a><a class="tag" taget="_blank" href="/search/%E5%AF%B9%E8%B1%A1%E6%8C%81%E4%B9%85%E5%8C%96/1.htm">对象持久化</a> <div>在hibernate中session一级缓存机制中,有这么一种情况: 问题描述:我需要new一个对象,对它的几个字段赋值,但是有一些属性并没有进行赋值,然后调用 session.save()方法,在提交事务后,会出现这样的情况: 1:在数据库中有默认属性的字段的值为空 2:既然是持久化对象,为什么在最后对象拿不到默认属性的值? 通过调试后解决方案如下: 对于问题一,如你在数据库里设置了</div> </li> <li><a href="/article/882.htm" title="WebService调用错误合集" target="_blank">WebService调用错误合集</a> <span class="text-muted">darkranger</span> <a class="tag" taget="_blank" href="/search/webservice/1.htm">webservice</a> <div> Java.Lang.NoClassDefFoundError: Org/Apache/Commons/Discovery/Tools/DiscoverSingleton 调用接口出错, 一个简单的WebService import org.apache.axis.client.Call;import org.apache.axis.client.Service; 首先必不可</div> </li> <li><a href="/article/1009.htm" title="JSP和Servlet的中文乱码处理" target="_blank">JSP和Servlet的中文乱码处理</a> <span class="text-muted">aijuans</span> <a class="tag" taget="_blank" href="/search/Java+Web/1.htm">Java Web</a> <div>JSP和Servlet的中文乱码处理 前几天学习了JSP和Servlet中有关中文乱码的一些问题,写成了博客,今天进行更新一下。应该是可以解决日常的乱码问题了。现在作以下总结希望对需要的人有所帮助。我也是刚学,所以有不足之处希望谅解。 一、表单提交时出现乱码: 在进行表单提交的时候,经常提交一些中文,自然就避免不了出现中文乱码的情况,对于表单来说有两种提交方式:get和post提交方式。所以</div> </li> <li><a href="/article/1136.htm" title="面试经典六问" target="_blank">面试经典六问</a> <span class="text-muted">atongyeye</span> <a class="tag" taget="_blank" href="/search/%E5%B7%A5%E4%BD%9C/1.htm">工作</a><a class="tag" taget="_blank" href="/search/%E9%9D%A2%E8%AF%95/1.htm">面试</a> <div>题记:因为我不善沟通,所以在面试中经常碰壁,看了网上太多面试宝典,基本上不太靠谱。只好自己总结,并试着根据最近工作情况完成个人答案。以备不时之需。 以下是人事了解应聘者情况的最典型的六个问题: 1 简单自我介绍 关于这个问题,主要为了弄清两件事,一是了解应聘者的背景,二是应聘者将这些背景信息组织成合适语言的能力。 我的回答:(针对技术面试回答,如果是人事面试,可以就掌</div> </li> <li><a href="/article/1263.htm" title="contentResolver.query()参数详解" target="_blank">contentResolver.query()参数详解</a> <span class="text-muted">百合不是茶</span> <a class="tag" taget="_blank" href="/search/android/1.htm">android</a><a class="tag" taget="_blank" href="/search/query%28%29%E8%AF%A6%E8%A7%A3/1.htm">query()详解</a> <div>收藏csdn的博客,介绍的比较详细,新手值得一看 1.获取联系人姓名 一个简单的例子,这个函数获取设备上所有的联系人ID和联系人NAME。 [java]  view plain copy   public void fetchAllContacts() {      </div> </li> <li><a href="/article/1390.htm" title="ora-00054:resource busy and acquire with nowait specified解决方法" target="_blank">ora-00054:resource busy and acquire with nowait specified解决方法</a> <span class="text-muted">bijian1013</span> <a class="tag" taget="_blank" href="/search/oracle/1.htm">oracle</a><a class="tag" taget="_blank" href="/search/%E6%95%B0%E6%8D%AE%E5%BA%93/1.htm">数据库</a><a class="tag" taget="_blank" href="/search/kill/1.htm">kill</a><a class="tag" taget="_blank" href="/search/nowait/1.htm">nowait</a> <div>        当某个数据库用户在数据库中插入、更新、删除一个表的数据,或者增加一个表的主键时或者表的索引时,常常会出现ora-00054:resource busy and acquire with nowait specified这样的错误。主要是因为有事务正在执行(或者事务已经被锁),所有导致执行不成功。 1.下面的语句</div> </li> <li><a href="/article/1517.htm" title="web 开发乱码" target="_blank">web 开发乱码</a> <span class="text-muted">征客丶</span> <a class="tag" taget="_blank" href="/search/spring/1.htm">spring</a><a class="tag" taget="_blank" href="/search/Web/1.htm">Web</a> <div>以下前端都是 utf-8 字符集编码 一、后台接收 1.1、 get 请求乱码 get 请求中,请求参数在请求头中; 乱码解决方法: a、通过在web 服务器中配置编码格式:tomcat 中,在 Connector 中添加URIEncoding="UTF-8"; 1.2、post 请求乱码 post 请求中,请求参数分两部份, 1.2.1、url?参数,</div> </li> <li><a href="/article/1644.htm" title="【Spark十六】: Spark SQL第二部分数据源和注册表的几种方式" target="_blank">【Spark十六】: Spark SQL第二部分数据源和注册表的几种方式</a> <span class="text-muted">bit1129</span> <a class="tag" taget="_blank" href="/search/spark/1.htm">spark</a> <div>Spark SQL数据源和表的Schema case class apply schema parquet json JSON数据源 准备源数据 {"name":"Jack", "age": 12, "addr":{"city":"beijing&</div> </li> <li><a href="/article/1771.htm" title="JVM学习之:调优总结 -Xms -Xmx -Xmn -Xss" target="_blank">JVM学习之:调优总结 -Xms -Xmx -Xmn -Xss</a> <span class="text-muted">BlueSkator</span> <a class="tag" taget="_blank" href="/search/-Xss/1.htm">-Xss</a><a class="tag" taget="_blank" href="/search/-Xmn/1.htm">-Xmn</a><a class="tag" taget="_blank" href="/search/-Xms/1.htm">-Xms</a><a class="tag" taget="_blank" href="/search/-Xmx/1.htm">-Xmx</a> <div>  堆大小设置JVM 中最大堆大小有三方面限制:相关操作系统的数据模型(32-bt还是64-bit)限制;系统的可用虚拟内存限制;系统的可用物理内存限制。32位系统下,一般限制在1.5G~2G;64为操作系统对内存无限制。我在Windows Server 2003 系统,3.5G物理内存,JDK5.0下测试,最大可设置为1478m。典型设置: java -Xmx355</div> </li> <li><a href="/article/1898.htm" title="jqGrid 各种参数 详解(转帖)" target="_blank">jqGrid 各种参数 详解(转帖)</a> <span class="text-muted">BreakingBad</span> <a class="tag" taget="_blank" href="/search/jqGrid/1.htm">jqGrid</a> <div>  jqGrid 各种参数 详解 分类:  源代码分享  个人随笔请勿参考  解决开发问题 2012-05-09 20:29   84282人阅读   评论(22)   收藏   举报 jquery 服务器 parameters function ajax string   </div> </li> <li><a href="/article/2025.htm" title="读《研磨设计模式》-代码笔记-代理模式-Proxy" target="_blank">读《研磨设计模式》-代码笔记-代理模式-Proxy</a> <span class="text-muted">bylijinnan</span> <a class="tag" taget="_blank" href="/search/java/1.htm">java</a><a class="tag" taget="_blank" href="/search/%E8%AE%BE%E8%AE%A1%E6%A8%A1%E5%BC%8F/1.htm">设计模式</a> <div>声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/ import java.lang.reflect.InvocationHandler; import java.lang.reflect.Method; import java.lang.reflect.Proxy; /* * 下面</div> </li> <li><a href="/article/2152.htm" title="应用升级iOS8中遇到的一些问题" target="_blank">应用升级iOS8中遇到的一些问题</a> <span class="text-muted">chenhbc</span> <a class="tag" taget="_blank" href="/search/ios8/1.htm">ios8</a><a class="tag" taget="_blank" href="/search/%E5%8D%87%E7%BA%A7iOS8/1.htm">升级iOS8</a> <div>1、很奇怪的问题,登录界面,有一个判断,如果不存在某个值,则跳转到设置界面,ios8之前的系统都可以正常跳转,iOS8中代码已经执行到下一个界面了,但界面并没有跳转过去,而且这个值如果设置过的话,也是可以正常跳转过去的,这个问题纠结了两天多,之前的判断我是在 -(void)viewWillAppear:(BOOL)animated  中写的,最终的解决办法是把判断写在 -(void</div> </li> <li><a href="/article/2279.htm" title="工作流与自组织的关系?" target="_blank">工作流与自组织的关系?</a> <span class="text-muted">comsci</span> <a class="tag" taget="_blank" href="/search/%E8%AE%BE%E8%AE%A1%E6%A8%A1%E5%BC%8F/1.htm">设计模式</a><a class="tag" taget="_blank" href="/search/%E5%B7%A5%E4%BD%9C/1.htm">工作</a> <div>  目前的工作流系统中的节点及其相互之间的连接是事先根据管理的实际需要而绘制好的,这种固定的模式在实际的运用中会受到很多限制,特别是节点之间的依存关系是固定的,节点的处理不考虑到流程整体的运行情况,细节和整体间的关系是脱节的,那么我们提出一个新的观点,一个流程是否可以通过节点的自组织运动来自动生成呢?这种流程有什么实际意义呢?   这里有篇论文,摘要是:“针对网格中的服务</div> </li> <li><a href="/article/2406.htm" title="Oracle11.2新特性之INSERT提示IGNORE_ROW_ON_DUPKEY_INDEX" target="_blank">Oracle11.2新特性之INSERT提示IGNORE_ROW_ON_DUPKEY_INDEX</a> <span class="text-muted">daizj</span> <a class="tag" taget="_blank" href="/search/oracle/1.htm">oracle</a> <div>insert提示IGNORE_ROW_ON_DUPKEY_INDEX 转自:http://space.itpub.net/18922393/viewspace-752123 在 insert into tablea ...select * from tableb中,如果存在唯一约束,会导致整个insert操作失败。使用IGNORE_ROW_ON_DUPKEY_INDEX提示,会忽略唯一</div> </li> <li><a href="/article/2533.htm" title="二叉树:堆" target="_blank">二叉树:堆</a> <span class="text-muted">dieslrae</span> <a class="tag" taget="_blank" href="/search/%E4%BA%8C%E5%8F%89%E6%A0%91/1.htm">二叉树</a> <div>    这里说的堆其实是一个完全二叉树,每个节点都不小于自己的子节点,不要跟jvm的堆搞混了.由于是完全二叉树,可以用数组来构建.用数组构建树的规则很简单:     一个节点的父节点下标为: (当前下标 - 1)/2     一个节点的左节点下标为: 当前下标 * 2 + 1   &</div> </li> <li><a href="/article/2660.htm" title="C语言学习八结构体" target="_blank">C语言学习八结构体</a> <span class="text-muted">dcj3sjt126com</span> <a class="tag" taget="_blank" href="/search/c/1.htm">c</a> <div>为什么需要结构体,看代码 # include <stdio.h> struct Student //定义一个学生类型,里面有age, score, sex, 然后可以定义这个类型的变量 { int age; float score; char sex; } int main(void) { struct Student st = {80, 66.6,</div> </li> <li><a href="/article/2787.htm" title="centos安装golang" target="_blank">centos安装golang</a> <span class="text-muted">dcj3sjt126com</span> <a class="tag" taget="_blank" href="/search/centos/1.htm">centos</a> <div>#在国内镜像下载二进制包 wget -c  http://www.golangtc.com/static/go/go1.4.1.linux-amd64.tar.gz tar -C /usr/local -xzf go1.4.1.linux-amd64.tar.gz   #把golang的bin目录加入全局环境变量 cat >>/etc/profile<</div> </li> <li><a href="/article/2914.htm" title="10.性能优化-监控-MySQL慢查询" target="_blank">10.性能优化-监控-MySQL慢查询</a> <span class="text-muted">frank1234</span> <a class="tag" taget="_blank" href="/search/%E6%80%A7%E8%83%BD%E4%BC%98%E5%8C%96/1.htm">性能优化</a><a class="tag" taget="_blank" href="/search/MySQL%E6%85%A2%E6%9F%A5%E8%AF%A2/1.htm">MySQL慢查询</a> <div>1.记录慢查询配置 show variables where variable_name like 'slow%' ; --查看默认日志路径 查询结果:--不用的机器可能不同 slow_query_log_file=/var/lib/mysql/centos-slow.log 修改mysqld配置文件:/usr /my.cnf[一般在/etc/my.cnf,本机在/user/my.cn</div> </li> <li><a href="/article/3041.htm" title="Java父类取得子类类名" target="_blank">Java父类取得子类类名</a> <span class="text-muted">happyqing</span> <a class="tag" taget="_blank" href="/search/java/1.htm">java</a><a class="tag" taget="_blank" href="/search/this/1.htm">this</a><a class="tag" taget="_blank" href="/search/%E7%88%B6%E7%B1%BB/1.htm">父类</a><a class="tag" taget="_blank" href="/search/%E5%AD%90%E7%B1%BB/1.htm">子类</a><a class="tag" taget="_blank" href="/search/%E7%B1%BB%E5%90%8D/1.htm">类名</a> <div>  在继承关系中,不管父类还是子类,这些类里面的this都代表了最终new出来的那个类的实例对象,所以在父类中你可以用this获取到子类的信息!   package com.urthinker.module.test; import org.junit.Test; abstract class BaseDao<T> { public void </div> </li> <li><a href="/article/3168.htm" title="Spring3.2新注解@ControllerAdvice" target="_blank">Spring3.2新注解@ControllerAdvice</a> <span class="text-muted">jinnianshilongnian</span> <a class="tag" taget="_blank" href="/search/%40Controller/1.htm">@Controller</a> <div>@ControllerAdvice,是spring3.2提供的新注解,从名字上可以看出大体意思是控制器增强。让我们先看看@ControllerAdvice的实现:   @Target(ElementType.TYPE) @Retention(RetentionPolicy.RUNTIME) @Documented @Component public @interface Co</div> </li> <li><a href="/article/3295.htm" title="Java spring mvc多数据源配置" target="_blank">Java spring mvc多数据源配置</a> <span class="text-muted">liuxihope</span> <a class="tag" taget="_blank" href="/search/spring/1.htm">spring</a> <div>转自:http://www.itpub.net/thread-1906608-1-1.html 1、首先配置两个数据库 <bean id="dataSourceA" class="org.apache.commons.dbcp.BasicDataSource" destroy-method="close&quo</div> </li> <li><a href="/article/3422.htm" title="第12章 Ajax(下)" target="_blank">第12章 Ajax(下)</a> <span class="text-muted">onestopweb</span> <a class="tag" taget="_blank" href="/search/Ajax/1.htm">Ajax</a> <div>index.html <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/</div> </li> <li><a href="/article/3549.htm" title="BW / Universe Mappings" target="_blank">BW / Universe Mappings</a> <span class="text-muted">blueoxygen</span> <a class="tag" taget="_blank" href="/search/BO/1.htm">BO</a> <div>  BW Element OLAP Universe Element Cube  Dimension Class Charateristic A class with dimension and detail objects (Detail objects for key and desription) Hi</div> </li> <li><a href="/article/3676.htm" title="Java开发熟手该当心的11个错误" target="_blank">Java开发熟手该当心的11个错误</a> <span class="text-muted">tomcat_oracle</span> <a class="tag" taget="_blank" href="/search/java/1.htm">java</a><a class="tag" taget="_blank" href="/search/%E5%A4%9A%E7%BA%BF%E7%A8%8B/1.htm">多线程</a><a class="tag" taget="_blank" href="/search/%E5%B7%A5%E4%BD%9C/1.htm">工作</a><a class="tag" taget="_blank" href="/search/%E5%8D%95%E5%85%83%E6%B5%8B%E8%AF%95/1.htm">单元测试</a> <div>#1、不在属性文件或XML文件中外化配置属性。比如,没有把批处理使用的线程数设置成可在属性文件中配置。你的批处理程序无论在DEV环境中,还是UAT(用户验收 测试)环境中,都可以顺畅无阻地运行,但是一旦部署在PROD 上,把它作为多线程程序处理更大的数据集时,就会抛出IOException,原因可能是JDBC驱动版本不同,也可能是#2中讨论的问题。如果线程数目 可以在属性文件中配置,那么使它成为</div> </li> <li><a href="/article/3803.htm" title="推行国产操作系统的优劣" target="_blank">推行国产操作系统的优劣</a> <span class="text-muted">yananay</span> <a class="tag" taget="_blank" href="/search/windows/1.htm">windows</a><a class="tag" taget="_blank" href="/search/linux/1.htm">linux</a><a class="tag" taget="_blank" href="/search/%E5%9B%BD%E4%BA%A7%E6%93%8D%E4%BD%9C%E7%B3%BB%E7%BB%9F/1.htm">国产操作系统</a> <div>最近刮起了一股风,就是去“国外货”。从应用程序开始,到基础的系统,数据库,现在已经刮到操作系统了。原因就是“棱镜计划”,使我们终于认识到了国外货的危害,开始重视起了信息安全。操作系统是计算机的灵魂。既然是灵魂,为了信息安全,那我们就自然要使用和推行国货。可是,一味地推行,是否就一定正确呢? 先说说信息安全。其实从很早以来大家就在讨论信息安全。很多年以前,就据传某世界级的网络设备制造商生产的交</div> </li> </ul> </div> </div> </div> <div> <div class="container"> <div class="indexes"> <strong>按字母分类:</strong> <a href="/tags/A/1.htm" target="_blank">A</a><a href="/tags/B/1.htm" target="_blank">B</a><a href="/tags/C/1.htm" target="_blank">C</a><a href="/tags/D/1.htm" target="_blank">D</a><a href="/tags/E/1.htm" target="_blank">E</a><a href="/tags/F/1.htm" target="_blank">F</a><a href="/tags/G/1.htm" target="_blank">G</a><a href="/tags/H/1.htm" target="_blank">H</a><a href="/tags/I/1.htm" target="_blank">I</a><a href="/tags/J/1.htm" target="_blank">J</a><a href="/tags/K/1.htm" target="_blank">K</a><a href="/tags/L/1.htm" target="_blank">L</a><a href="/tags/M/1.htm" target="_blank">M</a><a href="/tags/N/1.htm" target="_blank">N</a><a href="/tags/O/1.htm" target="_blank">O</a><a href="/tags/P/1.htm" target="_blank">P</a><a href="/tags/Q/1.htm" target="_blank">Q</a><a href="/tags/R/1.htm" target="_blank">R</a><a href="/tags/S/1.htm" target="_blank">S</a><a href="/tags/T/1.htm" target="_blank">T</a><a href="/tags/U/1.htm" target="_blank">U</a><a href="/tags/V/1.htm" target="_blank">V</a><a href="/tags/W/1.htm" target="_blank">W</a><a href="/tags/X/1.htm" target="_blank">X</a><a href="/tags/Y/1.htm" target="_blank">Y</a><a href="/tags/Z/1.htm" target="_blank">Z</a><a href="/tags/0/1.htm" target="_blank">其他</a> </div> </div> </div> <footer id="footer" class="mb30 mt30"> <div class="container"> <div class="footBglm"> <a target="_blank" href="/">首页</a> - <a target="_blank" href="/custom/about.htm">关于我们</a> - <a target="_blank" href="/search/Java/1.htm">站内搜索</a> - <a target="_blank" href="/sitemap.txt">Sitemap</a> - <a target="_blank" href="/custom/delete.htm">侵权投诉</a> </div> <div class="copyright">版权所有 IT知识库 CopyRight © 2000-2050 E-COM-NET.COM , All Rights Reserved. <!-- <a href="https://beian.miit.gov.cn/" rel="nofollow" target="_blank">京ICP备09083238号</a><br>--> </div> </div> </footer> <!-- 代码高亮 --> <script type="text/javascript" src="/static/syntaxhighlighter/scripts/shCore.js"></script> <script type="text/javascript" src="/static/syntaxhighlighter/scripts/shLegacy.js"></script> <script type="text/javascript" src="/static/syntaxhighlighter/scripts/shAutoloader.js"></script> <link type="text/css" rel="stylesheet" href="/static/syntaxhighlighter/styles/shCoreDefault.css"/> <script type="text/javascript" src="/static/syntaxhighlighter/src/my_start_1.js"></script> </body> </html>