GridFS简介
GridFS是MongoDB中的一个内置功能,可以用于存放大量小文件。
http://www.mongodb.org/display/DOCS/GridFS
http://www.mongodb.org/display/DOCS/GridFS+Specification
GridFS使用
MongoDB提供了一个命令行工具mongofiles可以来处理GridFS,在bin目录下。
列出所有文件:
mongofiles list
上传一个文件:
mongofiles put xxx.txt
下载一个文件:
mongofiles get xxx.txt
查找文件:
mongofiles search xxx //会查找所有文件名中包含“xxx”的文件
mongofiles list xxx //会查找所有文件名以“xxx”为前缀的文件
参数说明:
–d 指定数据库 ,默认是fs,Mongofiles list –d testGridfs
-u –p 指定用户名,密码
-h 指定主机
-port 指定主机端口
-c 指定集合名,默认是fs
-t 指定文件的MIME类型,默认会忽略
使用MongoVUE来查看,管理GridFS
MongoVUE地址:http://www.mongovue.com/
MongoVUE是个免费软件,但超过15天后功能受限。可以通过删除以下注册表项来解除限制:
[HKEY_CURRENT_USER\Software\Classes\CLSID\{B1159E65-821C3-21C5-CE21-34A484D54444}\4FF78130]
把这个项下的值全删掉就可以了。
用java驱动上传下载文件:
下载地址:https://github.com/mongodb/mongo-java-driver/downloads
官方的文档貌似不是最新的,不过通过查看api来使用也不困骓。
http://api.mongodb.org/java/2.7.2/
以下代码基于mongo-2.7.3.jar
001 |
import java.io.FileInputStream; |
002 |
import java.io.IOException; |
003 |
import java.io.InputStream; |
004 |
import java.net.UnknownHostException; |
005 |
import java.security.NoSuchAlgorithmException; |
007 |
import com.mongodb.BasicDBObject; |
008 |
import com.mongodb.DB; |
009 |
import com.mongodb.DBCollection; |
010 |
import com.mongodb.DBObject; |
011 |
import com.mongodb.Mongo; |
012 |
import com.mongodb.MongoException; |
013 |
import com.mongodb.gridfs.GridFS; |
014 |
import com.mongodb.gridfs.GridFSDBFile; |
015 |
import com.mongodb.gridfs.GridFSInputFile; |
020 |
DBCollection collection; |
023 |
String mongoDBHost = "127.0.0.1" ; |
024 |
int mongoDBPort = 27017 ; |
025 |
String dbName = "testGridfs" ; |
026 |
String collectionName = "fs" ; |
028 |
public static void main(String[] args) throws MongoException, IOException, NoSuchAlgorithmException { |
031 |
String fileName = "F:/CPU.txt" ; |
032 |
String name = "CPU.txt" ; |
035 |
t.save( new FileInputStream(fileName), name); |
039 |
GridFSDBFile gridFSDBFile = t.getByFileName(name); |
040 |
if (gridFSDBFile != null ){ |
041 |
System.out.println( "filename:" + gridFSDBFile.getFilename()); |
042 |
System.out.println( "md5:" + gridFSDBFile.getMD5()); |
043 |
System.out.println( "length:" + gridFSDBFile.getLength()); |
044 |
System.out.println( "uploadDate:" + gridFSDBFile.getUploadDate()); |
046 |
System.out.println( "--------------------------------------" ); |
047 |
gridFSDBFile.writeTo(System.out); |
049 |
System.out.println( "can not get file by name:" + name); |
053 |
public Test() throws UnknownHostException, MongoException, NoSuchAlgorithmException { |
058 |
public Test(String mongoDBHost, int mongoDBPort, String dbName, |
059 |
String collectionName) throws UnknownHostException, MongoException, NoSuchAlgorithmException { |
060 |
this .mongoDBHost = mongoDBHost; |
061 |
this .mongoDBPort = mongoDBPort; |
062 |
this .dbName = dbName; |
063 |
this .collectionName = collectionName; |
068 |
private void _init() throws UnknownHostException, MongoException, NoSuchAlgorithmException{ |
069 |
connection = new Mongo(mongoDBHost, mongoDBPort); |
070 |
db = connection.getDB(dbName); |
071 |
collection = db.getCollection(collectionName); |
072 |
myFS = new GridFS(db); |
076 |
* 用给出的id,保存文件,透明处理已存在的情况 |
077 |
* id 可以是string,long,int,org.bson.types.ObjectId 类型 |
081 |
public void save(InputStream in, Object id){ |
082 |
DBObject query = new BasicDBObject( "_id" , id); |
083 |
GridFSDBFile gridFSDBFile = myFS.findOne(query); |
085 |
if (gridFSDBFile != null ) |
088 |
GridFSInputFile gridFSInputFile = myFS.createFile(in); |
089 |
gridFSInputFile.save(); |
098 |
public GridFSDBFile getById(Object id){ |
099 |
DBObject query = new BasicDBObject( "_id" , id); |
100 |
GridFSDBFile gridFSDBFile = myFS.findOne(query); |
109 |
public GridFSDBFile getByFileName(String fileName){ |
110 |
DBObject query = new BasicDBObject( "filename" , fileName); |
111 |
GridFSDBFile gridFSDBFile = myFS.findOne(query); |
nginx-gridfs模块的安装使用
项目主页:https://github.com/mdirolf/nginx-gridfs
通过nginx-gridfs,可以直接用http来访问GridFS中的文件。
1. 安装
安装各种依赖包:zlib,pcre,openssl
在ubuntu下可能是以下命令:
sudo apt-get install zlib1g-dev //貌似sudo apt-get install zlib-dev 不能安装
sudo apt-get install libpcre3 libpcre3-dev
sudo apt-get install openssl libssl-dev
安装git(略)
用git下载nginx-gridfs的代码:
git clone git://github.com/mdirolf/nginx-gridfs.git
cd nginx-gridfs
git submodule init
git submodule update
下载nginx:
wget http://nginx.org/download/nginx-1.0.12.zip
tar zxvf nginx-1.0.12.zip
cd nginx-1.0.12
./configure --add-module=<nginx-gridfs的路径>
make
sudo make install
如果编译出错,则在configure时加上--with-cc-opt=-Wno-error 参数。
2. 配置nginx
在server的配置中加上以下
location /pics/ {
gridfs pics
field=filename
type=string;
mongo 127.0.0.1:27017;
}
上面的配置表示:
数据库是pics,通过文件名filename来访问文件,filename的类型是string
目前只支持通过id和filename来访问文件。
启动nginx:/usr/local/nginx/sbin/nginx
用MongoVUE把一个图片001.jpg上传到pics数据库中。
打开:http://localhost/pics/001.jpg
如果成功,则可以看到显示图片了。
3. nginx-gridfs的不足
没有实现http的range support,也就是断点续传,分片下载的功能。
GridFS实现原理
GridFS在数据库中,默认使用fs.chunks和fs.files来存储文件。
其中fs.files集合存放文件的信息,fs.chunks存放文件数据。
一个fs.files集合中的一条记录内容如下,即一个file的信息如下:
02 |
"_id" : ObjectId( "4f4608844f9b855c6c35e298" ), |
03 |
"filename" : "CPU.txt" , |
06 |
"uploadDate" : ISODate( "2012-02-23T09:36:04.593Z" ), |
07 |
"md5" : "e2c789b036cfb3b848ae39a24e795ca6" , |
08 |
"contentType" : "text/plain" |
对应的fs.chunks中的chunk如下:
2 |
"_id" : ObjectId( "4f4608844f9b855c6c35e299" ), |
3 |
"files_id" : ObjectId( "4f4608844f9b855c6c35e298" ), |
5 |
"data" : BinData(0, "QGV..." ) |
默认chunk的大小是256K。
public static final int DEFAULT_CHUNKSIZE = 256 * 1024;
所以在把文件存入到GridFS过程中,如果文件大于chunksize,则把文件分割成多个chunk,再把这些chunk保存到fs.chunks中,最后再把文件信息存入到fs.files中。
在读取文件的时候,先据查询的条件,在fs.files中找到一个合适的记录,得到“_id”的值,再据这个值到fs.chunks中查找所有“files_id”为“_id”的chunk,并按“n”排序,最后依次读取chunk中“data”对象的内容,还原成原来的文件。
自定义Gridfs的hash函数
尽管从理论上,无论用什么hash函数,都有可能出现hash值相同,但内容不相同的文件,但是对于GridFS默认使用的md5算法,目前已出现长度和md5值都相同但内容不一样的文件。
如果想要自已改用其它hash算法,可以从驱动入手。因为GridFS在MongoDB中实际也只是两个普通的集合,所以完全可以自已修改驱动,替换下hash算法即可。
目前java版的驱动比较简单,可以很容易修改实现。
但是要注意,这样不符合GridFS的规范了。
注意事项
1. GridFS不自动处理md5相同的文件,对于md5相同的文件,如果想在GridFS中只有一个存储,要用户自已处理。Md5值的计算由客户端完成。
2. 因为GridFS在上传文件过程中是先把文件数据保存到fs.chunks,最后再把文件信息保存到fs.files中,所以如果在上传文件过程中失败,有可能在fs.chunks中出现垃圾数据。这些垃圾数据可以定期清理掉。