- K-means聚类自定义距离计算的开源算法选择
小小她爹
大数据与自然语言处理
如果你想自己定义一个距离的function的话,scikit-learn是不行的,只支持Euclideandistance如果你觉得spark可以的话,实际上sprk的k-means也是不行的,好一点的是支持Euclideandistance,还支持cosinedistance如果你想自己定义function处理的话,二个方法:1、自己实现算法,可参考的文档:一个简单的讲解https://medi
- 配置Hadoop集群远程客户端
赶路人儿
hadoop#sparkhadoop大数据bigdata
在Hadoop和Spark集群搭建好了以后,如果我们需要向集群中发送、获取文件,或者是执行MapReduce、Spark作业,通常是搭建一个外围的、集群的客户端,在这个客户端上进行操作。而不是直接在集群的NameNode或者DataNode上进行。此时,集群和客户端的结构如下图所示(简化图,没有考虑NameNode的高可用),本文将介绍如何快速搭建一个集群客户端(有时也叫gateway)。说明:在
- 大数据(4.1)Hive架构设计与企业级实战:从内核原理到性能巅峰优化,打造高效数据仓库
一个天蝎座 白勺 程序猿
大数据开发从入门到实战合集数据仓库hivehadoop
目录背景与行业痛点一、Hive内核机制深度拆解1.元数据管理的艺术:Metastore核心原理2.执行引擎的底层博弈:MapReducevs.Tezvs.Spark二、企业级数仓建模实战:金融风控场景1.分层架构设计2.数据质量监控三、性能优化巅峰实践1.资源调优:YARN队列的黄金分割法则2.执行计划魔改:Hint强制优化3.数据倾斜核武器:SkewJoin优化四、Hive
- Spark常用参数解释及建议值
螺丝钉X先生
Spark
spark的默认配置文件位于堡垒机上的这个位置:$SPARK_CONF_DIR/spark-defaults.conf,用户可以自行查看和理解。需要注意的是,默认值优先级最低,用户如果提交任务时或者代码里明确指定配置,则以用户配置为先。用户再理解参数含义的基础上,可根据具体任务情况调整参数。以下常用参数配置均可以通过--confXXX=Y方式使用,其他参数以及介绍请参考https://spark.
- SparkAudio 是什么,和其他的同类 TTS 模型相比有什么优势
涛涛讲AI
大模型人工智能TTSpythondjango
欢迎来到涛涛聊AI在当今数字化时代,音频处理技术已经成为人们生活和工作中不可或缺的一部分。无论是制作有声读物、开发语音助手,还是进行影视配音,我们都离不开高效、精准的音频处理工具。然而,传统的音频处理技术往往存在诸多痛点,比如语音合成效果生硬、缺乏真实感,声音克隆难度大、成本高,以及在多语言处理方面表现不佳等问题,这些都极大地限制了音频内容的质量和应用范围。而SparkAudio的出现,就像是音频
- Spark Streaming 监控UI详解
走向自由
sparksparkstreamingmonitorui
本文作为学习总结,文中引用到其他作者很多知识,对原作者表示感谢。TableofContentsSpark基本概念Spark监控的三个阶段SparkDriver阶段SparkExecutor阶段SparkStreaming阶段Spark基本概念Jobjob是application的组成单位。Ajobistriggeredbyanaction,likecount()orsaveAsTextFile()
- YARN Container与Spark Executor参数优先级详解
SmartManWind
sparkjavascript大数据
在SparkonYARN环境中,资源参数的配置涉及YARN和Spark两个层面的参数设置,它们之间存在一定的优先级关系。以下是关键参数的优先级解析:1.参数优先级总览SparkonYARN的资源参数优先级遵循以下原则:Spark-submit命令行参数>spark-defaults.conf配置>环境变量>默认值YARN层面的资源限制会最终约束Spark申请的资源总量2.关键参数对应关系2.1内存
- active状态与standby状态区别
caibaoli
实习第4天实习第四天之spark源码学习sparkmasterslavesactivestandby
spark集群一般为一个master和两个slaves,通常情况下,master是active状态,slaves是standby状态。active状态意味着提供服务,standby状态意味着处于休眠状态,只进行数据同步,时刻准备着提供服务,两者可以切换。
- Scala核心技术总结(1)
淋一遍下雨天
scala开发语言后端
第1章Scala入门1.1Scala概述为什么学习Scala:Spark框架是用Scala编写的,学习Scala有助于更好地理解和学习Spark。Scala结合了面向对象和函数式编程的特性,是一种多范式编程语言。Scala基于JVM,可以与Java无缝交互,兼容Java类库。Scala发展历史:由MartinOdersky设计,融合了函数式编程和面向对象编程的特点。Scala推动了Java语言的发
- 前端实现websocket之文件分片上传
编辑done
前端
前端:1、通过DOM获取文件对象,并且对文件进行MD5加密(文件内容+文件标题形式),采用SparkMD5进行文件加密;2、进行分片设置,利用Blob的slice方法进行文件分片处理3、通过ws.send()方法发送每个文件片段,为确保片段顺序和完整性,通常会给每个片段附加一个序号或ID4、当分片文件上传完成后,请求合并接口后端进行文件合并处理即可。后端:1、后端WebSocket服务器接收每个文
- StructedStreaming消费Kafka数据突然存储不到HDFS
erainm
问题解决方案kafkahdfsspark
问题描述:StructedStreaming消费Kafka数据存储到HDFS中,以前正常存储,突然就存储不进去了,可以新建文件夹,但是数据写入不进去了。分析:通过流写出到控制台,能消费数据,说明消费正常,但是就是写不进HDFS中,说明写时不能触发HDFS保存。/***消费数据,写到控制台*/valquery=spark.sql(sql).writeStream.format("console").
- AI大型语言模型企业级应用开发架构实战:实时数据流处理与推理
AI天才研究院
AI实战DeepSeekR1&大数据AI人工智能大模型Python实战大数据人工智能语言模型AILLMJavaPython架构设计
1.背景介绍近年来,随着人工智能技术的迅速发展,特别是基于大规模语料库的预训练模型及其海量计算能力的释放,越来越多的公司、组织和个人开始关注并尝试将这些高性能模型部署到生产环境中,进行业务落地。然而,企业在部署大型语言模型时面临的最大挑战就是如何高效、低延迟地进行实时推理,从而满足业务需求。本文主要阐述通过使用Kafka作为数据队列中间件,SparkStreaming作为实时数据流处理引擎,以及F
- Unity设计模式(1)泛型单例模式
徐子竣
单例模式
暑假期间总结了自己大一时学习了解的一些框架和写的小工具,顺便在这里回顾记录一下GitHub工程文件网址:BlueSparkRain/GameFramwork(github.com)泛型单例模式(Common/Singleton):单例模式是unity游戏开发时不能错过(^-^真香)的工具类脚本单例模式印象单例模式反映了封装,分而治之的思想,便于开发者与团队间进行项目管理,将一段‘重复的功能代码’封
- Flink && Spark SQL提效神器双双更新
flinkspark大数据
大家新年好,在这里先祝大家开工大吉,今年少bug少加班多赚钱!本次SparkSQLHelper主要更新了对于Hints的补全支持,Release版本为2025.2.0。插件地址:https://plugins.jetbrains.com/plugin/26079-spark-sql-helper或者直接在Jetbrains插件市场搜索SparkSQLHelepr。用户QQ群:782150013。而
- YARN Container 与 Spark Executor 的数量关系
SmartManWind
sparkhadoopyarn
YARNContainer与SparkExecutor的数量关系在SparkonYARN部署模式下,YARNContainer和SparkExecutor的数量确实存在对应关系,但并不是简单的一对一关系。主要关系每个SparkExecutor运行在一个YARNContainer中一个YARNContainer通常对应一个SparkExecutor进程但一个Container可能包含多个Execut
- Spark
薇晶晶
大数据
Spark简介Spark的特点运行速度快:使用DAG执行引擎以支持循环数据流与内存计算容易使用:支持使用Scala、Java、Python和R语言进行编程,可以通过SparkShell进行交互式编程通用性:Spark提供了完整而强大的技术栈,包括SQL查询、流式计算、机器学习和图算法组件运行模式多样:可运行于独立的集群模式中,可运行于Hadoop中,也可运行于AmazonEC2等云环境中,并且可以
- Spark 在 Python 大数据中的作用
不辉放弃
大数据python
一句话总结:Spark是一个快速处理海量数据的工具,用Python写代码就能轻松分析TB级的数据(比如日志、用户行为、交易记录等),比传统单机工具(如Excel、Pandas)快几十倍甚至几百倍!举个栗子:假设你有一个图书馆,里面有1亿本书,你需要统计:哪些书最受欢迎?不同地区的借阅偏好是什么?预测未来哪些书会被借阅更多?如果用普通电脑的Excel或Python单机处理:卡死!内存不够,速度极慢,
- SparkMLlib未来发展趋势:展望未来
AI天才研究院
DeepSeekR1&大数据AI人工智能大模型AI大模型企业级应用开发实战计算计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
SparkMLlib未来发展趋势:展望未来1.背景介绍1.1什么是SparkMLlib?ApacheSparkMLlib是ApacheSpark中的机器学习库,提供了多种机器学习算法的实现。它基于Spark的分布式内存计算框架,可以高效地处理大规模数据集,并且具有良好的扩展性和容错性。1.2SparkMLlib的优势相较于其他机器学习框架,SparkMLlib具有以下优势:高性能:基于内存计算,避
- 流处理开源框架Flink原理简介和使用
平凡人笔记
平凡人笔记
sparkkafkastream示例大数据处理工具Kafka、Zk、Spark这篇文章描述了如何搭建kafka、zk和spark集群环境本篇文章先简要的举个demo来说明下代码实现过程源码https://gitee.com/pingfanrenbiji/spark-scala-examples/blob/master/src/main/scala/com/sparkbyexamples/spark
- Total size of serialized results of 20 tasks (1088.8 MB) is bigger than spark.driver.maxResultSize (
Levin__NLP_CV_LLM
Totalsizeofserializedresultsof20tasks(1088.8MB)isbiggerthanspark.driver.maxResultSize(1024.0MB)pypark2.0(sparkpython)执行中出现上述错误,解决方案:SparkContext.setSystemProperty('spark.driver.maxResultSize','10g')
- 工作中遇到的spark SQL小问题:包含某个或某些字符的条件
Terry_trans
sparksql大数据
今天又来总结工作中遇到的问题了,今天是SQL,spark引擎需求描述,筛选渠道包含”线上化“的数据也就是讨论where里面的这个筛选条件怎么写一般起手都是whereQDlike'%线上化%‘学习了其他的写法:1.INSTR函数whereINSTR(QD,"线上化")0:INSTR是一个函数,用于返回子字符串在字符串中第一次出现的位置。如果QD列包含“线上化”,则INSTR(QD,"线上化")的返回
- Spark中的map、flatMap、mapToPair
青龙悟空
spark
目录mapToPairsspark的RDD操作spark的flatMapflatMap很显然每一行都按照空格拆分成了三行,因此总行数是拆分前的三倍,第一行的内容只剩下原第一行的第一个数据,时间。这样flatMap的作用就很明显了spark的mapmapToPairsscala版本scala是没有mapToPair函数的,scala版本只需要map就可以了,只有Java才有!!!!!scala>va
- 基于云服务器的数仓搭建-hive/spark安装
AlphaFree_
服务器hivespark
mysql本地安装安装流程(内存占用200M,升至2.1G)#将资料里mysql文件夹及里面所有内容上传到/opt/software/mysql目录下mkdir/opt/software/mysqlcd/opt/software/mysql/#待上传文件install_mysql.shmysql-community-client-8.0.31-1.el7.x86_64.rpmmysql-commu
- 顶级Web应用程序测试工具列表
旧游无处不堪寻
测试工具测试用例selenium网络协议功能测试jmeterpostman
今天主要列举Web应用程序的工具。今天的列表仅仅提供索引功能,具体要使用的同学,可以自行搜索哦。通过web应用程序测试,在web应用程序公开发布之前,会发现网站功能、安全性、可访问性、可用性、兼容性和性能等问题。Web应用程序测试工具:WebLOADDigivanteAcunetixInvicti(formerlyNetsparker)TestCompleteAvoAssureAstraWeb功能
- Spark2 之 Expression/Functions
zhixingheyi_tian
sparkspark
ExpressionConvertersrc/main/scala/org/apache/gluten/expression/ExpressionConverter.scalaTopNTransformersrc/main/scala/org/apache/gluten/execution/TopNTransformer.scala
- Spark2 之 FallBack
zhixingheyi_tian
sparkspark
newValidatorsrc/main/scala/org/apache/gluten/extension/columnar/validator/Validators.scala/***Avalidatorthatdoesn'tinvolvenativevalidation.**ThisistypicallyRASplannerthatdoesnativevalidationinlinewith
- 【自学笔记】Spark基础知识点总览-持续更新
Long_poem
笔记spark大数据
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录ApacheSpark基础知识点总览目录简介核心组件SparkSQLDataFrame与DatasetAPIRDD(弹性分布式数据集)SparkStreamingMLlib(机器学习库)GraphX(图处理框架)部署模式示例代码创建SparkContext创建RDD并执行操作使用DataFrameAPI使用SparkSQL总结
- Spark 从HDFS读取时,通常按文件块(block)数量决定初始partition数,这是怎么实现的?
闯闯桑
sparkhdfs大数据
在Spark中,从HDFS读取数据时按文件块(block)数量决定初始partition数,这一机制是通过HadoopInputFormat的分片(split)策略实现的。具体流程如下:1.HDFS文件块(Block)与SparkPartition的对应关系HDFS默认块大小(如128MB/256MB)决定了文件的物理存储分布。Spark在读取HDFS文件时,会调用Hadoop的InputForm
- 【ESP32】【LLM API】Accessing the Xunfei Spark LLM API with ESP32
hmywillstronger
spark大数据分布式
AccessingtheXunfeiSparkLLMAPIwithESP32Real-timeconversationwithXunfeiSparklargelanguagemodelviaESP32microcontrollerIntroductionWiththerapiddevelopmentofartificialintelligencetechnology,largelanguagemo
- Buffer overFolw---Kryo序列化出现缓冲区溢出的问题解决
Matrix70
#spark大数据分布式
问题:由于我的数据量太大,我设置批次为10000万,50w数据大概有400M左右,然后进行spark数据处理时候报错为org.apache.spark.SparkException:Kryoserializationfailed:BufferoverFolw.Available:0,rquired58900977,Toavoidthis,increasespark.kryoserializer.b
- 矩阵求逆(JAVA)初等行变换
qiuwanchi
矩阵求逆(JAVA)
package gaodai.matrix;
import gaodai.determinant.DeterminantCalculation;
import java.util.ArrayList;
import java.util.List;
import java.util.Scanner;
/**
* 矩阵求逆(初等行变换)
* @author 邱万迟
*
- JDK timer
antlove
javajdkschedulecodetimer
1.java.util.Timer.schedule(TimerTask task, long delay):多长时间(毫秒)后执行任务
2.java.util.Timer.schedule(TimerTask task, Date time):设定某个时间执行任务
3.java.util.Timer.schedule(TimerTask task, long delay,longperiod
- JVM调优总结 -Xms -Xmx -Xmn -Xss
coder_xpf
jvm应用服务器
堆大小设置JVM 中最大堆大小有三方面限制:相关操作系统的数据模型(32-bt还是64-bit)限制;系统的可用虚拟内存限制;系统的可用物理内存限制。32位系统下,一般限制在1.5G~2G;64为操作系统对内存无限制。我在Windows Server 2003 系统,3.5G物理内存,JDK5.0下测试,最大可设置为1478m。
典型设置:
java -Xmx
- JDBC连接数据库
Array_06
jdbc
package Util;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
public class JDBCUtil {
//完
- Unsupported major.minor version 51.0(jdk版本错误)
oloz
java
java.lang.UnsupportedClassVersionError: cn/support/cache/CacheType : Unsupported major.minor version 51.0 (unable to load class cn.support.cache.CacheType)
at org.apache.catalina.loader.WebappClassL
- 用多个线程处理1个List集合
362217990
多线程threadlist集合
昨天发了一个提问,启动5个线程将一个List中的内容,然后将5个线程的内容拼接起来,由于时间比较急迫,自己就写了一个Demo,希望对菜鸟有参考意义。。
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.CountDownLatch;
public c
- JSP简单访问数据库
香水浓
sqlmysqljsp
学习使用javaBean,代码很烂,仅为留个脚印
public class DBHelper {
private String driverName;
private String url;
private String user;
private String password;
private Connection connection;
privat
- Flex4中使用组件添加柱状图、饼状图等图表
AdyZhang
Flex
1.添加一个最简单的柱状图
? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
<?xml version=
"1.0"&n
- Android 5.0 - ProgressBar 进度条无法展示到按钮的前面
aijuans
android
在低于SDK < 21 的版本中,ProgressBar 可以展示到按钮前面,并且为之在按钮的中间,但是切换到android 5.0后进度条ProgressBar 展示顺序变化了,按钮再前面,ProgressBar 在后面了我的xml配置文件如下:
[html]
view plain
copy
<RelativeLa
- 查询汇总的sql
baalwolf
sql
select list.listname, list.createtime,listcount from dream_list as list , (select listid,count(listid) as listcount from dream_list_user group by listid order by count(
- Linux du命令和df命令区别
BigBird2012
linux
1,两者区别
du,disk usage,是通过搜索文件来计算每个文件的大小然后累加,du能看到的文件只是一些当前存在的,没有被删除的。他计算的大小就是当前他认为存在的所有文件大小的累加和。
- AngularJS中的$apply,用还是不用?
bijian1013
JavaScriptAngularJS$apply
在AngularJS开发中,何时应该调用$scope.$apply(),何时不应该调用。下面我们透彻地解释这个问题。
但是首先,让我们把$apply转换成一种简化的形式。
scope.$apply就像一个懒惰的工人。它需要按照命
- [Zookeeper学习笔记十]Zookeeper源代码分析之ClientCnxn数据序列化和反序列化
bit1129
zookeeper
ClientCnxn是Zookeeper客户端和Zookeeper服务器端进行通信和事件通知处理的主要类,它内部包含两个类,1. SendThread 2. EventThread, SendThread负责客户端和服务器端的数据通信,也包括事件信息的传输,EventThread主要在客户端回调注册的Watchers进行通知处理
ClientCnxn构造方法
&
- 【Java命令一】jmap
bit1129
Java命令
jmap命令的用法:
[hadoop@hadoop sbin]$ jmap
Usage:
jmap [option] <pid>
(to connect to running process)
jmap [option] <executable <core>
(to connect to a
- Apache 服务器安全防护及实战
ronin47
此文转自IBM.
Apache 服务简介
Web 服务器也称为 WWW 服务器或 HTTP 服务器 (HTTP Server),它是 Internet 上最常见也是使用最频繁的服务器之一,Web 服务器能够为用户提供网页浏览、论坛访问等等服务。
由于用户在通过 Web 浏览器访问信息资源的过程中,无须再关心一些技术性的细节,而且界面非常友好,因而 Web 在 Internet 上一推出就得到
- unity 3d实例化位置出现布置?
brotherlamp
unity教程unityunity资料unity视频unity自学
问:unity 3d实例化位置出现布置?
答:实例化的同时就可以指定被实例化的物体的位置,即 position
Instantiate (original : Object, position : Vector3, rotation : Quaternion) : Object
这样你不需要再用Transform.Position了,
如果你省略了第二个参数(
- 《重构,改善现有代码的设计》第八章 Duplicate Observed Data
bylijinnan
java重构
import java.awt.Color;
import java.awt.Container;
import java.awt.FlowLayout;
import java.awt.Label;
import java.awt.TextField;
import java.awt.event.FocusAdapter;
import java.awt.event.FocusE
- struts2更改struts.xml配置目录
chiangfai
struts.xml
struts2默认是读取classes目录下的配置文件,要更改配置文件目录,比如放在WEB-INF下,路径应该写成../struts.xml(非/WEB-INF/struts.xml)
web.xml文件修改如下:
<filter>
<filter-name>struts2</filter-name>
<filter-class&g
- redis做缓存时的一点优化
chenchao051
redishadooppipeline
最近集群上有个job,其中需要短时间内频繁访问缓存,大概7亿多次。我这边的缓存是使用redis来做的,问题就来了。
首先,redis中存的是普通kv,没有考虑使用hash等解结构,那么以为着这个job需要访问7亿多次redis,导致效率低,且出现很多redi
- mysql导出数据不输出标题行
daizj
mysql数据导出去掉第一行去掉标题
当想使用数据库中的某些数据,想将其导入到文件中,而想去掉第一行的标题是可以加上-N参数
如通过下面命令导出数据:
mysql -uuserName -ppasswd -hhost -Pport -Ddatabase -e " select * from tableName" > exportResult.txt
结果为:
studentid
- phpexcel导出excel表简单入门示例
dcj3sjt126com
PHPExcelphpexcel
先下载PHPEXCEL类文件,放在class目录下面,然后新建一个index.php文件,内容如下
<?php
error_reporting(E_ALL);
ini_set('display_errors', TRUE);
ini_set('display_startup_errors', TRUE);
if (PHP_SAPI == 'cli')
die('
- 爱情格言
dcj3sjt126com
格言
1) I love you not because of who you are, but because of who I am when I am with you. 我爱你,不是因为你是一个怎样的人,而是因为我喜欢与你在一起时的感觉。 2) No man or woman is worth your tears, and the one who is, won‘t
- 转 Activity 详解——Activity文档翻译
e200702084
androidUIsqlite配置管理网络应用
activity 展现在用户面前的经常是全屏窗口,你也可以将 activity 作为浮动窗口来使用(使用设置了 windowIsFloating 的主题),或者嵌入到其他的 activity (使用 ActivityGroup )中。 当用户离开 activity 时你可以在 onPause() 进行相应的操作 。更重要的是,用户做的任何改变都应该在该点上提交 ( 经常提交到 ContentPro
- win7安装MongoDB服务
geeksun
mongodb
1. 下载MongoDB的windows版本:mongodb-win32-x86_64-2008plus-ssl-3.0.4.zip,Linux版本也在这里下载,下载地址: http://www.mongodb.org/downloads
2. 解压MongoDB在D:\server\mongodb, 在D:\server\mongodb下创建d
- Javascript魔法方法:__defineGetter__,__defineSetter__
hongtoushizi
js
转载自: http://www.blackglory.me/javascript-magic-method-definegetter-definesetter/
在javascript的类中,可以用defineGetter和defineSetter_控制成员变量的Get和Set行为
例如,在一个图书类中,我们自动为Book加上书名符号:
function Book(name){
- 错误的日期格式可能导致走nginx proxy cache时不能进行304响应
jinnianshilongnian
cache
昨天在整合某些系统的nginx配置时,出现了当使用nginx cache时无法返回304响应的情况,出问题的响应头: Content-Type:text/html; charset=gb2312 Date:Mon, 05 Jan 2015 01:58:05 GMT Expires:Mon , 05 Jan 15 02:03:00 GMT Last-Modified:Mon, 05
- 数据源架构模式之行数据入口
home198979
PHP架构行数据入口
注:看不懂的请勿踩,此文章非针对java,java爱好者可直接略过。
一、概念
行数据入口(Row Data Gateway):充当数据源中单条记录入口的对象,每行一个实例。
二、简单实现行数据入口
为了方便理解,还是先简单实现:
<?php
/**
* 行数据入口类
*/
class OrderGateway {
/*定义元数
- Linux各个目录的作用及内容
pda158
linux脚本
1)根目录“/” 根目录位于目录结构的最顶层,用斜线(/)表示,类似于
Windows
操作系统的“C:\“,包含Fedora操作系统中所有的目录和文件。 2)/bin /bin 目录又称为二进制目录,包含了那些供系统管理员和普通用户使用的重要
linux命令的二进制映像。该目录存放的内容包括各种可执行文件,还有某些可执行文件的符号连接。常用的命令有:cp、d
- ubuntu12.04上编译openjdk7
ol_beta
HotSpotjvmjdkOpenJDK
获取源码
从openjdk代码仓库获取(比较慢)
安装mercurial Mercurial是一个版本管理工具。 sudo apt-get install mercurial
将以下内容添加到$HOME/.hgrc文件中,如果没有则自己创建一个: [extensions] forest=/home/lichengwu/hgforest-crew/forest.py fe
- 将数据库字段转换成设计文档所需的字段
vipbooks
设计模式工作正则表达式
哈哈,出差这么久终于回来了,回家的感觉真好!
PowerDesigner的物理数据库一出来,设计文档中要改的字段就多得不计其数,如果要把PowerDesigner中的字段一个个Copy到设计文档中,那将会是一件非常痛苦的事情。