- Python精选200Tips:121-125
AnFany
Python200+Tipspython开发语言
Spendyourtimeonself-improvement121Requests-简化的HTTP请求处理发送GET请求发送POST请求发送PUT请求发送DELETE请求会话管理处理超时文件上传122BeautifulSoup-网页解析和抓取解析HTML和XML文档查找单个标签查找多个标签使用CSS选择器查找标签提取文本修改文档内容删除标签处理XML文档123Scrapy-强大的网络爬虫框架示例
- python web自动化
gaoguide2015
自动化脚本webhtml
1.python爬虫之模拟登陆csdn(登录、cookie)http://blog.csdn.net/yanggd1987/article/details/52127436?locationNum=32、xml解析:Python网页解析:BeautifulSoup与lxml.html方式对比(xpath)lxml库速度快,功能强大,推荐。http://blog.sina.com.cn/s/blog
- BeautifulSoup:Python网页解析库详解
零 度°
pythonbeautifulsouppython
BeautifulSoup是一个Python库,用于从HTML或XML文件中提取数据。它能够通过简单的方法处理复杂的HTML文档,并且很容易就能找到你需要的标签和数据。BeautifulSoup的主要特点易于使用:BeautifulSoup提供了简洁的API来提取HTML标签。灵活:可以与lxml、html5lib或html.parser等解析器一起使用。强大:支持导航、搜索、修改解析树等功能。常
- 第四篇:python网络爬虫
张箫剑
python爬虫开发语言
文章目录一、什么是爬虫二、Python爬虫架构三、安装第三方库1.request(网页下载器)2.BeautifulSoup(网页解析器)四、URL管理器五、练习六、小结一、什么是爬虫爬虫:一段自动抓取互联网信息的程序,从互联网上抓取对于我们有价值的信息。二、Python爬虫架构Python爬虫架构主要由五个部分组成,分别是调度器、URL管理器、网页下载器、网页解析器、应用程序(爬取的有价值数据)
- python爬虫爬取豆瓣电影
秋笙fine
最近买了《python编程从入门到实践》,想之后写两篇文章,一篇数据可视化,一篇pythonweb,今天这篇就当python入门吧。一.前期准备:IDE准备:pycharm导入的python库:requests用于请求,BeautifulSoup用于网页解析二.实现步骤1.传入url2.解析返回的数据3.筛选4.遍历提取数据三.代码实现importrequests#导入网页请求库frombs4im
- 网页解析神器-Selector选择器全面解析
越大大雨天
本文主要参照scrapy最新官方文档编写。官方文档直达链接:https://docs.scrapy.org/en/latest/topics/selectors.html大部分人可能喜欢使用以下三个解析器对网页进行解析:BeautifulSoup:使用方便,支css选择器,但它有个不可忽视的缺点:慢。lxml解析库:采用xpath解析,速度快。pyquery:它提供了和jQuery类似的语法来解析
- python 爬虫篇(3)---->Beautiful Soup 网页解析库的使用(包含实例代码)
万物都可def
python爬虫python爬虫开发语言
BeautifulSoup网页解析库的使用文章目录BeautifulSoup网页解析库的使用前言一、安装BeautifulSoup和lxml二、BeautifulSoup基本使用方法标签选择器1.string--获取文本内容2.name--获取标签本身名称3.attrs[]--通过属性拿属性的值标准选择器find_all(name,attrs,recursive,text,**kwargs)tex
- Python爬虫 pyquery库详解#4
仲君Johnny
python爬虫逆向教程python爬虫开发语言网络爬虫数据分析
爬虫专栏:http://t.csdnimg.cn/WfCSx使用pyquery在上一节中,我们介绍了BeautifulSoup的用法,它是一个非常强大的网页解析库,你是否觉得它的一些方法用起来有点不适应?有没有觉得它的CSS选择器的功能没有那么强大?如果你对Web有所涉及,如果你比较喜欢用CSS选择器,如果你对jQuery有所了解,那么这里有一个更适合你的解析库——pyquery。接下来,我们就来
- PyQuery库的基本使用
小董不太懂
PyQuery库也是一个非常强大又灵活的网页解析库,如果你有前端开发经验的,都应该接触过jQuery,那么PyQuery就是你非常绝佳的选择,PyQuery是Python仿照jQuery的严格实现。语法与jQuery几乎完全相同,所以不用再去费心去记一些奇怪的方法了。官网地址:http://pyquery.readthedocs.io/en/latest/jQuery参考文档:http://jqu
- bs4模块
林小果1
python爬虫python爬虫网络爬虫
bs4模块与案例使用指南bs4,全称BeautifulSoup4,是Python中一个强大的网页解析库,它可以帮助我们方便地从网页中提取数据。bs4将复杂HTML文档转换成树形结构,每个节点都是Python对象,所有对象可以归纳为4种:Tag,NavigableString,BeautifulSoup,Comment。安装bs4在Python环境下,我们可以使用pip命令进行安装:pipinsta
- 网页解析的全过程(输入url到展示页面)(摘)
BugMyGod
1.用户输入网址,浏览器发起DNS查询请求用户访问网页,DNS服务器(域名解析系统)会根据用户提供的域名查找对应的IP地址。域名解析服务器是基于UDP协议实现的一个应用程序,通常通过监听53端口来获取客户端的域名解析请求。DNS查找过程如下:浏览器缓存–浏览器会缓存DNS记录一段时间。有趣的是,操作系统没有告诉浏览器储存DNS记录的时间,这样不同浏览器会储存个自固定的一个时间(2分钟到30分钟不等
- 爬虫入门到精通_基础篇4(BeautifulSoup库_解析库,基本使用,标签选择器,标准选择器,CSS选择器)
好奇养活小猫
#爬虫爬虫beautifulsoupcss
1Beautiful说明BeautifulSoup库是灵活又方便的网页解析库,处理高效,支持多种解析器。利用它不用编写正则表达式即可方便地实线网页信息的提取。安装pip3installbeautifulsoup4解析库解析器使用方法优势劣势Python标准库BeautifulSoup(markup,“html.parser”)Python的内置标准库、执行速度适中、文档容错能力强Python2.7
- 转载自android 开发--抓取网页解析网页内容的若干方法(网络爬虫)(正则表达式)
后岔湾程序员
UI界面android网络爬虫url网络UI界面
转载自http://blog.csdn.net/sac761/article/details/48379173android开发--抓取网页解析网页内容的若干方法(网络爬虫)(正则表达式)标签:android开发爬虫技术xml解析html解析2015-09-1121:35836人阅读评论(0)收藏举报分类:android开发学习笔记(27)版权声明:本文为博主原创文章,未经博主允许不得转载。网页有
- Python爬虫的简单实践
KingDol_MIni
其他技术大数据和机器学习python爬虫开发语言
Python爬虫的简单实践案例:爬取电商网站商品信息目标网站:假设我们想要爬取一个电商网站上的商品信息,包括商品名称、价格、评论数量等。实现过程:网页请求:使用Python的请求库(例如Requests)发送HTTP请求,获取目标网页的HTML内容。网页解析:使用HTML解析库(例如BeautifulSoup、lxml)对网页进行解析,提取出所需的数据。数据抓取:根据网页结构和标签选择器,通过解析
- Python网络爬虫步骤是什么?新手小白必看 !
Python小远
python爬虫开发语言
python网络爬虫步骤:首先准备所需库,编写爬虫调度程序;然后编写url管理器,并编写网页下载器;接着编写网页解析器;最后编写网页输出器即可。本教程操作环境:windows7系统、python3.9版,DELLG3电脑。文末领取全套Python爬虫学习资源python网络爬虫步骤(1)准备所需库我们需要准备一款名为BeautifulSoup(网页解析)的开源库,用于对下载的网页进行解析,我们是用
- 网页解析库BeautifulSoup(八)
梦捷者
一、BeautifulSoup的简介BeautifulSoup是一个可以从HTML或XML文件中提取数据的Python库。官方中文文档的:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.htmlbeautifulsoup4的安装pipinstallbeautifulsoup4二、BeautifulSoup使用的简单例子三
- scrapy爬取京东商品评论并保存至Mysql数据库中
Miacoming
爬虫pythonmysql爬虫sql
scrapy爬取京东商品评论并保存至Mysql数据库一、总体概述二、实践过程2.1网页解析2.2使用单线程爬取代码如下:2.3使用scrapy爬取数据2.4绘制词云图结果:三、总结一、总体概述从京东搜索框搜索进入手机进入页面,爬取页面https://item.jd.com/100008348542.html的评论信息。爬取内容是评论信息(用户名、评论内容、评论星级、评论时间等),将信息爬取下来之后
- Python爬虫网页解析之parsel模块
25岁学Python
python爬虫网页解析之parsel模块一.parsel模块安装官网链接https://pypi.org/project/parsel/1.0.2/pipinstallparsel==1.0.2二.模块作用改模块主要用来将请求后的字符串格式解析成re,xpath,css进行内容的匹配推荐Python大牛在线分享技术扣qun:855408893领域:web开发,爬虫,数据分析,数据挖掘,人工智能三
- Python爬虫项目实战--模拟手机登录微博爬取博文转发评论点赞数据
kris-luo
Python爬虫python正则表达式大数据
Python爬虫实战项目----爬取博文转评赞数据importbs4#网页解析,获得数据importre#正则表达式,进行文字匹配importurllib.request,urllib.error#指定URL,获取网页数据importxlwt#进行excel操作frombs4importBeautifulSoupimportjson#导入json包weibo_url='https://m.weib
- 简单的爬虫架构
Ginta
爬虫架构URL管理器对将要爬取的url和已经爬取过的url进行管理。取出待爬取的url传给网页下载器。网页下载器将url指定的网页下载下来,存储成字符串,传给网页解析器进行解析。网页解析器从网页字符串内容中取出有价值的数据(也就是我们最终想要的数据)。
- Python爬虫之爬取豆瓣图书TOP250
JinTian312
Python爬虫python爬虫
爬取豆瓣图书TOP250图书信息及图书海报写这篇主要是为了去图书馆不知道看什么书或者不知道该买些什么书的时候可以参考经过众多豆友们点评出的好书推荐,哈哈哈哈哈。上代码(全部代码均在这里,只是分开按照步骤解释一下)第一步:导入需要用到的包。frombs4importBeautifulSoup#网页解析,获取数据importurllib.request,urllib.error#指定url,获取网页数
- pyhton爬虫学习
Echo_Wish
python爬虫及数据可视化大数据python
pyhton爬虫学习1.准备工作importbs4#网页解析,获取数据importurllib.request,urllib.error#制定URL,获取网页数据importxlwt#进行excel操作importre#正则表达式,进行数据的筛选importsysimportsqlite3#进行sqllite数据库操作2.尝试,测试工作对百度,httpbin.org等网站的尝试连接#-*-code
- 基于Scrapy的IP代理池搭建
卑微阿文
scrapytcp/ip网络
目录前言如何构建ip代理池1.确定代理IP源2.创建Scrapy项目3.定义代理IP爬虫4.编写网页解析逻辑5.检测代理IP的可用性6.存储可用的代理IP7.运行爬虫总结前言在网络爬虫过程中,使用代理IP可以有效地解决IP被封禁的问题。为了更好地使用代理IP,我们可以搭建一个IP代理池,动态地维护可用的代理IP列表。本文将介绍如何使用Scrapy框架搭建一个简单的IP代理池。Scrapy是一个功能
- 爬虫详细教程第2天
笛秋白
爬虫快速入门爬虫mysql数据库python
爬虫详细教程第2天1.解析网页2.正则表达式2.1概念3.re模块4.豆瓣TOP250电影5.bs4解析-HTML语法6.bs4解析-bs4模块安装和使用6.1bs4模块安装6.2bs4模块使用7.抓取图片各位小伙伴想要博客相关资料的话关注公众号:chuanyeTry即可领取相关资料!1.解析网页解析网页的三种解析方式:re解析bs4解析xpath解析2.正则表达式2.1概念正则表达式,一种使用表
- Python爬虫尝试——爬取文本信息
fancymeng
爬虫python爬虫
前序最近想起来CSDN,便坚持着分享一些近期的实践吧今天开篇前,分享一句话心之所安,便是归处爬虫分享言归正传,下面谈一谈爬虫的信息爬虫是一种自动化的程序,它模拟用户的行为,对网页发出请求,自动化地获取我们所需要的信息,对于信息检索十分重要,也比较便利。它的步骤大概如下:发送网络请求。笔者通常借助Python的库使用request实现,请求可以是POST/GET,视需求而定;网页解析。获取到网页的内
- python爬虫-网页解析beautifulSoup&XPath
Hascats
python爬虫
前面已经了解过,爬虫具有两大难点:一是数据的获取,二是采集的速度,因为会有很多的反爬(js)措施,导致爬虫并没有想象中那么容易。在python中,我们使用requests库作为核心,谷歌浏览器的检查工具作为辅助,学习如何编写爬虫。既然我们爬取的对象是网页,那自然少不了对网页的解析这一个关键阶段。所以我们接下来将学习解析网页的python库。BeautifulSoupBeautifulSoup是一个
- python爬虫学习-批量爬取图片
开心就好啦啦啦
python爬虫
python爬虫学习-批量爬取图片爬虫步骤爬取前十页图片到本地根据页码获取网络源码使用xpath解析网页解析网页并下载图片主函数如下爬取的网站为站长素材(仅做学习使用)爬取的目标网站为https://sc.chinaz.com/tupian/qinglvtupian.html如果爬取多页,需要依次遍历每一页,经过分析跳转其它页面的规律如下https://sc.chinaz.com/tupian/q
- beebox靶场A1 low 命令注入通关教程(上)
dj445566
xss网络安全web安全安全
一:html注入getHTML注入,就是当用户进行输入时,服务器没有对用户输入的数据进行过滤或转义,导致所有输入均被返回前端,网页解析器会将这些数据当作html代码进行解析,这就导致一些恶意代码会被正常执行。首先进行简单测试,输入11发现正常回显查看源码进行分析,发现没有做任何处理与过滤那接下来我们直接试一下xss,输入alert(111)发现有弹窗,证明这个网页过滤不严,那接下来我们试一下超链接
- Python爬取网易云音乐飙升榜并批量下载歌曲保存本地
数据科学探险
python开发语言Python
Python爬取网易云音乐飙升榜并批量下载歌曲保存本地在本篇文章中,我将介绍如何使用Python编写一个爬虫程序,从网易云音乐的飙升榜中获取歌曲信息,并且批量下载这些歌曲保存到本地。我们将使用Python的requests库进行网络请求,BeautifulSoup库进行网页解析,以及urllib库进行文件下载。首先,我们需要安装所需的库。在命令行中执行以下命令来安装requests、Beautif
- Python之BeautifulSoup
月蚀様
BeautifulSoup是什么一个灵活方便的网页解析库,处理高效,支持多种解析器利用他不用编写正则表达式即可方便地实现网页信息的提取安装pipinstallbeautifulsoup4支持的解析库解析器使用方法优势劣势Python标准库BeautifulSoup(markup,"html.parser")内置库,速度一般,容错率不错python老版本容错率差lxmlHTML解析库Beautifu
- 矩阵求逆(JAVA)初等行变换
qiuwanchi
矩阵求逆(JAVA)
package gaodai.matrix;
import gaodai.determinant.DeterminantCalculation;
import java.util.ArrayList;
import java.util.List;
import java.util.Scanner;
/**
* 矩阵求逆(初等行变换)
* @author 邱万迟
*
- JDK timer
antlove
javajdkschedulecodetimer
1.java.util.Timer.schedule(TimerTask task, long delay):多长时间(毫秒)后执行任务
2.java.util.Timer.schedule(TimerTask task, Date time):设定某个时间执行任务
3.java.util.Timer.schedule(TimerTask task, long delay,longperiod
- JVM调优总结 -Xms -Xmx -Xmn -Xss
coder_xpf
jvm应用服务器
堆大小设置JVM 中最大堆大小有三方面限制:相关操作系统的数据模型(32-bt还是64-bit)限制;系统的可用虚拟内存限制;系统的可用物理内存限制。32位系统下,一般限制在1.5G~2G;64为操作系统对内存无限制。我在Windows Server 2003 系统,3.5G物理内存,JDK5.0下测试,最大可设置为1478m。
典型设置:
java -Xmx
- JDBC连接数据库
Array_06
jdbc
package Util;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
public class JDBCUtil {
//完
- Unsupported major.minor version 51.0(jdk版本错误)
oloz
java
java.lang.UnsupportedClassVersionError: cn/support/cache/CacheType : Unsupported major.minor version 51.0 (unable to load class cn.support.cache.CacheType)
at org.apache.catalina.loader.WebappClassL
- 用多个线程处理1个List集合
362217990
多线程threadlist集合
昨天发了一个提问,启动5个线程将一个List中的内容,然后将5个线程的内容拼接起来,由于时间比较急迫,自己就写了一个Demo,希望对菜鸟有参考意义。。
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.CountDownLatch;
public c
- JSP简单访问数据库
香水浓
sqlmysqljsp
学习使用javaBean,代码很烂,仅为留个脚印
public class DBHelper {
private String driverName;
private String url;
private String user;
private String password;
private Connection connection;
privat
- Flex4中使用组件添加柱状图、饼状图等图表
AdyZhang
Flex
1.添加一个最简单的柱状图
? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
<?xml version=
"1.0"&n
- Android 5.0 - ProgressBar 进度条无法展示到按钮的前面
aijuans
android
在低于SDK < 21 的版本中,ProgressBar 可以展示到按钮前面,并且为之在按钮的中间,但是切换到android 5.0后进度条ProgressBar 展示顺序变化了,按钮再前面,ProgressBar 在后面了我的xml配置文件如下:
[html]
view plain
copy
<RelativeLa
- 查询汇总的sql
baalwolf
sql
select list.listname, list.createtime,listcount from dream_list as list , (select listid,count(listid) as listcount from dream_list_user group by listid order by count(
- Linux du命令和df命令区别
BigBird2012
linux
1,两者区别
du,disk usage,是通过搜索文件来计算每个文件的大小然后累加,du能看到的文件只是一些当前存在的,没有被删除的。他计算的大小就是当前他认为存在的所有文件大小的累加和。
- AngularJS中的$apply,用还是不用?
bijian1013
JavaScriptAngularJS$apply
在AngularJS开发中,何时应该调用$scope.$apply(),何时不应该调用。下面我们透彻地解释这个问题。
但是首先,让我们把$apply转换成一种简化的形式。
scope.$apply就像一个懒惰的工人。它需要按照命
- [Zookeeper学习笔记十]Zookeeper源代码分析之ClientCnxn数据序列化和反序列化
bit1129
zookeeper
ClientCnxn是Zookeeper客户端和Zookeeper服务器端进行通信和事件通知处理的主要类,它内部包含两个类,1. SendThread 2. EventThread, SendThread负责客户端和服务器端的数据通信,也包括事件信息的传输,EventThread主要在客户端回调注册的Watchers进行通知处理
ClientCnxn构造方法
&
- 【Java命令一】jmap
bit1129
Java命令
jmap命令的用法:
[hadoop@hadoop sbin]$ jmap
Usage:
jmap [option] <pid>
(to connect to running process)
jmap [option] <executable <core>
(to connect to a
- Apache 服务器安全防护及实战
ronin47
此文转自IBM.
Apache 服务简介
Web 服务器也称为 WWW 服务器或 HTTP 服务器 (HTTP Server),它是 Internet 上最常见也是使用最频繁的服务器之一,Web 服务器能够为用户提供网页浏览、论坛访问等等服务。
由于用户在通过 Web 浏览器访问信息资源的过程中,无须再关心一些技术性的细节,而且界面非常友好,因而 Web 在 Internet 上一推出就得到
- unity 3d实例化位置出现布置?
brotherlamp
unity教程unityunity资料unity视频unity自学
问:unity 3d实例化位置出现布置?
答:实例化的同时就可以指定被实例化的物体的位置,即 position
Instantiate (original : Object, position : Vector3, rotation : Quaternion) : Object
这样你不需要再用Transform.Position了,
如果你省略了第二个参数(
- 《重构,改善现有代码的设计》第八章 Duplicate Observed Data
bylijinnan
java重构
import java.awt.Color;
import java.awt.Container;
import java.awt.FlowLayout;
import java.awt.Label;
import java.awt.TextField;
import java.awt.event.FocusAdapter;
import java.awt.event.FocusE
- struts2更改struts.xml配置目录
chiangfai
struts.xml
struts2默认是读取classes目录下的配置文件,要更改配置文件目录,比如放在WEB-INF下,路径应该写成../struts.xml(非/WEB-INF/struts.xml)
web.xml文件修改如下:
<filter>
<filter-name>struts2</filter-name>
<filter-class&g
- redis做缓存时的一点优化
chenchao051
redishadooppipeline
最近集群上有个job,其中需要短时间内频繁访问缓存,大概7亿多次。我这边的缓存是使用redis来做的,问题就来了。
首先,redis中存的是普通kv,没有考虑使用hash等解结构,那么以为着这个job需要访问7亿多次redis,导致效率低,且出现很多redi
- mysql导出数据不输出标题行
daizj
mysql数据导出去掉第一行去掉标题
当想使用数据库中的某些数据,想将其导入到文件中,而想去掉第一行的标题是可以加上-N参数
如通过下面命令导出数据:
mysql -uuserName -ppasswd -hhost -Pport -Ddatabase -e " select * from tableName" > exportResult.txt
结果为:
studentid
- phpexcel导出excel表简单入门示例
dcj3sjt126com
PHPExcelphpexcel
先下载PHPEXCEL类文件,放在class目录下面,然后新建一个index.php文件,内容如下
<?php
error_reporting(E_ALL);
ini_set('display_errors', TRUE);
ini_set('display_startup_errors', TRUE);
if (PHP_SAPI == 'cli')
die('
- 爱情格言
dcj3sjt126com
格言
1) I love you not because of who you are, but because of who I am when I am with you. 我爱你,不是因为你是一个怎样的人,而是因为我喜欢与你在一起时的感觉。 2) No man or woman is worth your tears, and the one who is, won‘t
- 转 Activity 详解——Activity文档翻译
e200702084
androidUIsqlite配置管理网络应用
activity 展现在用户面前的经常是全屏窗口,你也可以将 activity 作为浮动窗口来使用(使用设置了 windowIsFloating 的主题),或者嵌入到其他的 activity (使用 ActivityGroup )中。 当用户离开 activity 时你可以在 onPause() 进行相应的操作 。更重要的是,用户做的任何改变都应该在该点上提交 ( 经常提交到 ContentPro
- win7安装MongoDB服务
geeksun
mongodb
1. 下载MongoDB的windows版本:mongodb-win32-x86_64-2008plus-ssl-3.0.4.zip,Linux版本也在这里下载,下载地址: http://www.mongodb.org/downloads
2. 解压MongoDB在D:\server\mongodb, 在D:\server\mongodb下创建d
- Javascript魔法方法:__defineGetter__,__defineSetter__
hongtoushizi
js
转载自: http://www.blackglory.me/javascript-magic-method-definegetter-definesetter/
在javascript的类中,可以用defineGetter和defineSetter_控制成员变量的Get和Set行为
例如,在一个图书类中,我们自动为Book加上书名符号:
function Book(name){
- 错误的日期格式可能导致走nginx proxy cache时不能进行304响应
jinnianshilongnian
cache
昨天在整合某些系统的nginx配置时,出现了当使用nginx cache时无法返回304响应的情况,出问题的响应头: Content-Type:text/html; charset=gb2312 Date:Mon, 05 Jan 2015 01:58:05 GMT Expires:Mon , 05 Jan 15 02:03:00 GMT Last-Modified:Mon, 05
- 数据源架构模式之行数据入口
home198979
PHP架构行数据入口
注:看不懂的请勿踩,此文章非针对java,java爱好者可直接略过。
一、概念
行数据入口(Row Data Gateway):充当数据源中单条记录入口的对象,每行一个实例。
二、简单实现行数据入口
为了方便理解,还是先简单实现:
<?php
/**
* 行数据入口类
*/
class OrderGateway {
/*定义元数
- Linux各个目录的作用及内容
pda158
linux脚本
1)根目录“/” 根目录位于目录结构的最顶层,用斜线(/)表示,类似于
Windows
操作系统的“C:\“,包含Fedora操作系统中所有的目录和文件。 2)/bin /bin 目录又称为二进制目录,包含了那些供系统管理员和普通用户使用的重要
linux命令的二进制映像。该目录存放的内容包括各种可执行文件,还有某些可执行文件的符号连接。常用的命令有:cp、d
- ubuntu12.04上编译openjdk7
ol_beta
HotSpotjvmjdkOpenJDK
获取源码
从openjdk代码仓库获取(比较慢)
安装mercurial Mercurial是一个版本管理工具。 sudo apt-get install mercurial
将以下内容添加到$HOME/.hgrc文件中,如果没有则自己创建一个: [extensions] forest=/home/lichengwu/hgforest-crew/forest.py fe
- 将数据库字段转换成设计文档所需的字段
vipbooks
设计模式工作正则表达式
哈哈,出差这么久终于回来了,回家的感觉真好!
PowerDesigner的物理数据库一出来,设计文档中要改的字段就多得不计其数,如果要把PowerDesigner中的字段一个个Copy到设计文档中,那将会是一件非常痛苦的事情。