GridFS详细分析

GridFS简介

GridFSMongoDB中的一个内置功能,可以用于存放大量小文件。

http://www.mongodb.org/display/DOCS/GridFS

http://www.mongodb.org/display/DOCS/GridFS+Specification

GridFS使用

MongoDB提供了一个命令行工具mongofiles可以来处理GridFS,在bin目录下。

列出所有文件:

mongofiles list

上传一个文件:

mongofiles put xxx.txt

下载一个文件:

mongofiles get xxx.txt

查找文件:

mongofiles search xxx    //会查找所有文件名中包含“xxx”的文件

mongofiles list xxx //会查找所有文件名以“xxx”为前缀的文件

参数说明:

–d 指定数据库 ,默认是fsMongofiles list –d testGridfs

-u –p 指定用户名,密码

-h  指定主机

-port 指定主机端口

-c 指定集合名,默认是fs

-t 指定文件的MIME类型,默认会忽略

使用MongoVUE来查看,管理GridFS

MongoVUE地址:http://www.mongovue.com/

MongoVUE是个免费软件,但超过15天后功能受限。可以通过删除以下注册表项来解除限制:

[HKEY_CURRENT_USER\Software\Classes\CLSID\{B1159E65-821C3-21C5-CE21-34A484D54444}\4FF78130]

把这个项下的值全删掉就可以了。

java驱动上传下载文件:

下载地址:https://github.com/mongodb/mongo-java-driver/downloads

官方的文档貌似不是最新的,不过通过查看api来使用也不困骓。

http://api.mongodb.org/java/2.7.2/

以下代码基于mongo-2.7.3.jar

[java]  view plain copy
  1. import java.io.FileInputStream;  
  2. import java.io.IOException;  
  3. import java.io.InputStream;  
  4. import java.net.UnknownHostException;  
  5. import java.security.NoSuchAlgorithmException;  
  6.   
  7. import com.mongodb.BasicDBObject;  
  8. import com.mongodb.DB;  
  9. import com.mongodb.DBCollection;  
  10. import com.mongodb.DBObject;  
  11. import com.mongodb.Mongo;  
  12. import com.mongodb.MongoException;  
  13. import com.mongodb.gridfs.GridFS;  
  14. import com.mongodb.gridfs.GridFSDBFile;  
  15. import com.mongodb.gridfs.GridFSInputFile;  
  16.   
  17. public class Test {  
  18.     Mongo connection;  
  19.     DB db;  
  20.     DBCollection collection;  
  21.     GridFS myFS;  
  22.   
  23.     String mongoDBHost = "127.0.0.1";  
  24.     int mongoDBPort = 27017;  
  25.     String dbName = "testGridfs";  
  26.     String collectionName = "fs";  
  27.   
  28.     public static void main(String[] args) throws MongoException, IOException, NoSuchAlgorithmException {  
  29.         Test t = new Test();  
  30.           
  31.         String fileName = "F:/CPU.txt";  
  32.         String name = "CPU.txt";  
  33.           
  34.         //把文件保存到gridfs中,并以文件的md5值为id  
  35.         t.save(new FileInputStream(fileName), name);  
  36.           
  37.         //据文件名从gridfs中读取到文件  
  38.           
  39.         GridFSDBFile gridFSDBFile = t.getByFileName(name);  
  40.         if(gridFSDBFile != null){  
  41.             System.out.println("filename:" + gridFSDBFile.getFilename());  
  42.             System.out.println("md5:" + gridFSDBFile.getMD5());  
  43.             System.out.println("length:" + gridFSDBFile.getLength());  
  44.             System.out.println("uploadDate:" + gridFSDBFile.getUploadDate());  
  45.               
  46.             System.out.println("--------------------------------------");  
  47.             gridFSDBFile.writeTo(System.out);  
  48.         }else{  
  49.             System.out.println("can not get file by name:" + name);  
  50.         }  
  51.     }  
  52.   
  53.     public Test() throws UnknownHostException, MongoException, NoSuchAlgorithmException {  
  54.         _init();  
  55.     }  
  56.       
  57.   
  58.     public Test(String mongoDBHost, int mongoDBPort, String dbName,  
  59.             String collectionName) throws UnknownHostException, MongoException, NoSuchAlgorithmException {  
  60.         this.mongoDBHost = mongoDBHost;  
  61.         this.mongoDBPort = mongoDBPort;  
  62.         this.dbName = dbName;  
  63.         this.collectionName = collectionName;  
  64.         _init();  
  65.     }  
  66.       
  67.       
  68.     private void _init() throws UnknownHostException, MongoException, NoSuchAlgorithmException{  
  69.         connection = new Mongo(mongoDBHost, mongoDBPort);  
  70.         db = connection.getDB(dbName);  
  71.         collection = db.getCollection(collectionName);  
  72.         myFS = new GridFS(db);  
  73.     }  
  74.       
  75.     /** 
  76.      * 用给出的id,保存文件,透明处理已存在的情况 
  77.      * id 可以是string,long,int,org.bson.types.ObjectId 类型 
  78.      * @param in 
  79.      * @param id 
  80.      */  
  81.     public void save(InputStream in, Object id){  
  82.         DBObject query  = new BasicDBObject("_id", id);  
  83.         GridFSDBFile gridFSDBFile = myFS.findOne(query);  
  84.           
  85.         if(gridFSDBFile != null)  
  86.             return;  
  87.           
  88.         GridFSInputFile gridFSInputFile = myFS.createFile(in);  
  89.         gridFSInputFile.save();  
  90.         return;  
  91.     }  
  92.       
  93.     /** 
  94.      * 据id返回文件 
  95.      * @param id 
  96.      * @return  
  97.      */  
  98.     public GridFSDBFile getById(Object id){  
  99.         DBObject query  = new BasicDBObject("_id", id);  
  100.         GridFSDBFile gridFSDBFile = myFS.findOne(query);  
  101.         return gridFSDBFile;  
  102.     }  
  103.       
  104.     /** 
  105.      * 据文件名返回文件,只返回第一个 
  106.      * @param fileName 
  107.      * @return  
  108.      */  
  109.     public GridFSDBFile getByFileName(String fileName){  
  110.         DBObject query  = new BasicDBObject("filename", fileName);  
  111.         GridFSDBFile gridFSDBFile = myFS.findOne(query);  
  112.         return gridFSDBFile;  
  113.     }  
  114. }  


nginx-gridfs模块的安装使用

项目地址:https://github.com/mdirolf/nginx-gridfs

通过nginx-gridfs,可以直接用http来访问GridFS中的文件。

1. 安装

安装各种依赖包:zlibpcreopenssl

ubuntu下可能是以下命令:

sudo apt-get install zlib1g-dev            //貌似sudo apt-get install zlib-dev 不能安装

sudo apt-get install libpcre3 libpcre3-dev

sudo apt-get install openssl libssl-dev

安装git(略)

git下载nginx-gridfs的代码:

git clone git://github.com/mdirolf/nginx-gridfs.git

    cd nginx-gridfs

    git submodule init

    git submodule update

下载nginx

wget http://nginx.org/download/nginx-1.0.12.zip

tar zxvf nginx-1.0.12.zip

cd nginx-1.0.12

 ./configure --add-module=<nginx-gridfs的路径>

make

sudo make install

如果编译出错,则在configure时加上--with-cc-opt=-Wno-error 参数。

2. 配置nginx

server的配置中加上以下

   location /pics/ {

                gridfs pics

                field=filename

                type=string;

                mongo 127.0.0.1:27017;

        }

上面的配置表示:

数据库是pics,通过文件名filename来访问文件,filename的类型是string

目前只支持通过idfilename来访问文件。

启动nginx/usr/local/nginx/sbin/nginx

MongoVUE把一个图片001.jpg上传到pics数据库中。

打开:http://localhost/pics/001.jpg

如果成功,则可以看到显示图片了。

3. nginx-gridfs的不足

没有实现httprange support,也就是断点续传,分片下载的功能。

GridFS实现原理

GridFS在数据库中,默认使用fs.chunksfs.files来存储文件。

其中fs.files集合存放文件的信息,fs.chunks存放文件数据。

一个fs.files集合中的一条记录内容如下,即一个file的信息如下:

[javascript]  view plain copy
  1. {   
  2. "_id" : ObjectId("4f4608844f9b855c6c35e298"),       //唯一id,可以是用户自定义的类型  
  3. "filename" : "CPU.txt",      //文件名  
  4. "length" : 778,      //文件长度  
  5. "chunkSize" : 262144,    //chunk的大小  
  6. "uploadDate" : ISODate("2012-02-23T09:36:04.593Z"), //上传时间  
  7. "md5" : "e2c789b036cfb3b848ae39a24e795ca6",      //文件的md5值  
  8. "contentType" : "text/plain"     //文件的MIME类型  
  9. "meta" : null    //文件的其它信息,默认是没有”meta”这个key,用户可以自己定义为任意BSON对象  
  10. }  


对应的fs.chunks中的chunk如下:

[javascript]  view plain copy
  1. {   
  2. "_id" : ObjectId("4f4608844f9b855c6c35e299"),    //chunk的id  
  3. "files_id" : ObjectId("4f4608844f9b855c6c35e298"),  //文件的id,对应fs.files中的对象,相当于fs.files集合的外键  
  4. "n" : 0,     //文件的第几个chunk块,如果文件大于chunksize的话,会被分割成多个chunk块  
  5. "data" : BinData(0,"QGV...")     //文件的二进制数据,这里省略了具体内容  
  6. }  


默认chunk的大小是256K

public static final int DEFAULT_CHUNKSIZE = 256 * 1024;

所以在把文件存入到GridFS过程中,如果文件大于chunksize,则把文件分割成多个chunk,再把这些chunk保存到fs.chunks中,最后再把文件信息存入到fs.files中。

在读取文件的时候,先据查询的条件,在fs.files中找到一个合适的记录,得到“_id”的值,再据这个值到fs.chunks中查找所有“files_id”为“_id”的chunk,并按“n”排序,最后依次读取chunk中“data”对象的内容,还原成原来的文件。

自定义Gridfshash函数

尽管从理论上,无论用什么hash函数,都有可能出现hash值相同,但内容不相同的文件,但是对于GridFS默认使用的md5算法,目前已出现长度和md5值都相同但内容不一样的文件。

如果想要自已改用其它hash算法,可以从驱动入手。因为GridFSMongoDB中实际也只是两个普通的集合,所以完全可以自已修改驱动,替换下hash算法即可。

目前java版的驱动比较简单,可以很容易修改实现。

但是要注意,这样不符合GridFS的规范了。

注意事项

1. GridFS不自动处理md5相同的文件,对于md5相同的文件,如果想在GridFS中只有一个存储,要用户自已处理。Md5值的计算由客户端完成。

2. 因为GridFS在上传文件过程中是先把文件数据保存到fs.chunks,最后再把文件信息保存到fs.files中,所以如果在上传文件过程中失败,有可能在fs.chunks中出现垃圾数据。这些垃圾数据可以定期清理掉。

你可能感兴趣的:(GridFS详细分析)