MongoDB学习之旅十一:MongoDB GridFS

    这篇文章写的很详细,忍不住就拿来收藏了!

    GridFS 是一种将大型文件存储在MongoDB 数据库中的文件规范。所有官方支持的驱动均实现了GridFS 规范。

    GridFSMongoDB中的一个内置功能,可以用于存放大量小文件。

   官网学习:

    http://www.mongodb.org/display/DOCS/GridFS

    http://www.mongodb.org/display/DOCS/GridFS+Specification

     1、为什么要用GridFS

    由于MongoDB 中BSON 对象大小是有限制的,所以GridFS 规范提供了一种透明的机制,可以将一个大文件分割成为多个较小的文档,这样的机制允许我们有效的保存大文件对象,特别对于那些巨大的文件,比如视频、高清图片等。

    2、如何实现海量存储

    为实现这点,该规范指定了一个将文件分块的标准。每个文件都将在文件集合对象中保存一个元数据对象,一个或多个chunk 块对象可被组合保存在一个chunk 块集合中。大多数情况下,你无需了解此规范中细节,而可将注意力放在各个语言版本的驱动中有关GridFS API 的部分或是如何使用mongofiles 工具上。

    3、语言支持

    GridFS 对Java, Perl, PHP, Python, Ruby 等程序语言均支持,且提供了良好的API 接口。

    4、简单介绍

    GridFS 使用两个表来存储数据:

    files 包含元数据对象

    chunks 包含其他一些相关信息的二进制块

    为了使多个GridFS 命名为一个单一的数据库,文件和块都有一个前缀,默认情况下,前缀是fs,所以任何默认的GridFS 存储将包括命名空间fs.files 和fs.chunks。各种第三方语言的驱动有权限改变这个前缀,所以你可以尝试设置另一个GridFS 命名空间用于存储照片,它的具体位置为:photos.files 和photos.chunks。下面我们看一下实际的例子吧。

    5、命令行工具
    mongofiles 是从命令行操作GridFS 的一种工具,例如我们将”testfile”这个文件存到库里面,具体用法如下:
    [root@localhost bin]# ./mongofiles put testfile
    connected to: 127.0.0.1
    added file: { _id: ObjectId('4fc60175c714c5d960fff76a'), filename: "testfile", chunkSize: 262144,
    uploadDate: new Date(1338376565745), md5: "8addbeb77789ae6b2cb75deee30faf1a", length:
    16 }
    done!
    下面我们查一下看库里有哪些GridFS 文件,在”mongofiles”后加一个参数”list”即可
    [root@localhost bin]# ./mongofiles list
    connected to: 127.0.0.1
    testfile 16
    接下来我们进库里看一下是否有新的东西
    [root@localhost bin]# ./mongo
    MongoDB shell version: 1.8.1
    connecting to: test
    > show collections
    fs.chunks --上文提到的fs.chunks
    fs.files --上文提到的fs.files
    system.indexes
    system.js
    >
   我们继续查看fs.files 中的内容
    > db.fs.files.find()
    { "_id" : ObjectId("4fc60175c714c5d960fff76a"), "filename" : "testfile", "chunkSize" : 262144,
    "uploadDate" : ISODate("2012-05-30T11:16:05.745Z"), "md5" :
    "8addbeb77789ae6b2cb75deee30faf1a", "length" : 16 }
    字段说明:
    Filename: 存储的文件名
    chunkSize: chunks 分块的大小
    uploadDate: 入库时间
    md5: 此文件的md5 码
   length: 文件大小, 单位”字节”
    看来fs.files 中存储的是一些基础的元数据信息
    我们继续查看fs.chunks 中的内容
    > db.fs.chunks.find()
    { "_id" : ObjectId("4fc60175cf1154905d949336"), "files_id" :
    ObjectId("4fc60175c714c5d960fff76a"), "n" : 0, "data" :
    BinData(0,"SGVyZSBpcyBCZWlqaW5nCg==") }
    其中比较重要的字段是”n”,它代表的是chunks 的序号,此序号从0 开始,看来fs.chunks中存储的是一些实际的内容数据信息
    我们即然能将此文件存进去,我们就应该有办法将其取出来,下面看一下实例:
    [root@localhost bin]# rm testfile
    rm:是否删除 一般文件 “testfile”? y --先删文件
    [root@localhost bin]# ./mongofiles get testfile --将其从库里取出来
    connected to: 127.0.0.1
    done write to: testfile
    [root@localhost bin]# md5sum testfile --校验md5,结果跟库里相同
    8addbeb77789ae6b2cb75deee30faf1a testfile
    [root@localhost bin]#
    6、索引
   db.fs.chunks.ensureIndex({files_id:1, n:1}, {unique: true});
    这样,一个块就可以利用它的files_id 和 n 的值进行检索。注意,GridFS 仍然可以用findOne得到第一个块,如下:
   db.fs.chunks.findOne({files_id: myFileID, n: 0});

    7、应用

    MongoDB提供了一个命令行工具mongofiles可以来处理GridFS,在bin目录下。
    列出所有文件:
    mongofiles list
    上传一个文件:
    mongofiles put xxx.txt
   下载一个文件:
    mongofiles get xxx.txt
    查找文件:
    mongofiles search xxx    //会查找所有文件名中包含“xxx”的文件
    mongofiles list xxx //会查找所有文件名以“xxx”为前缀的文件
    参数说明:
    –d 指定数据库 ,默认是fs,Mongofiles list –d testGridfs
    -u –p 指定用户名,密码
    -h  指定主机
    -port 指定主机端口
    -c 指定集合名,默认是fs
    -t 指定文件的MIME类型,默认会忽略
    使用MongoVUE来查看,管理GridFS
    MongoVUE地址:http://www.mongovue.com/
    MongoVUE是个免费软件,但超过15天后功能受限。可以通过删除以下注册表项来解除限制:

    [HKEY_CURRENT_USER\Software\Classes\CLSID\{B1159E65-821C3-21C5-CE21-34A484D54444}\4FF78130]

    把这个项下的值全删掉就可以了。
    用java驱动上传下载文件:
    下载地址:https://github.com/mongodb/mongo-java-driver/downloads
    官方的文档貌似不是最新的,不过通过查看api来使用也不困骓。
    http://api.mongodb.org/java/2.7.2/
    以下代码基于mongo-2.7.3.jar

import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStream;
import java.net.UnknownHostException;
import java.security.NoSuchAlgorithmException;
import com.mongodb.BasicDBObject;
import com.mongodb.DB;
import com.mongodb.DBCollection;
import com.mongodb.DBObject;
import com.mongodb.Mongo;
import com.mongodb.MongoException;
import com.mongodb.gridfs.GridFS;
import com.mongodb.gridfs.GridFSDBFile;
import com.mongodb.gridfs.GridFSInputFile;

public class Test {
    Mongo connection;
    DB db;
    DBCollection collection;
    GridFS myFS;

    String mongoDBHost = "127.0.0.1";
    int mongoDBPort = 27017;
    String dbName = "testGridfs";
    String collectionName = "fs";

    public static void main(String[] args) throws MongoException, IOException, NoSuchAlgorithmException {
        Test t = new Test();
        
        String fileName = "F:/CPU.txt";
        String name = "CPU.txt";
        
        //把文件保存到gridfs中,并以文件的md5值为id
        t.save(new FileInputStream(fileName), name);
        
        //据文件名从gridfs中读取到文件
        
        GridFSDBFile gridFSDBFile = t.getByFileName(name);
        if(gridFSDBFile != null){
            System.out.println("filename:" + gridFSDBFile.getFilename());
            System.out.println("md5:" + gridFSDBFile.getMD5());
            System.out.println("length:" + gridFSDBFile.getLength());
            System.out.println("uploadDate:" + gridFSDBFile.getUploadDate());
            
            System.out.println("--------------------------------------");
            gridFSDBFile.writeTo(System.out);
        }else{
            System.out.println("can not get file by name:" + name);
        }
    }

    public Test() throws UnknownHostException, MongoException, NoSuchAlgorithmException {
        _init();
    }
    

    public Test(String mongoDBHost, int mongoDBPort, String dbName,
            String collectionName) throws UnknownHostException, MongoException, NoSuchAlgorithmException {
        this.mongoDBHost = mongoDBHost;
        this.mongoDBPort = mongoDBPort;
        this.dbName = dbName;
        this.collectionName = collectionName;
        _init();
    }
    
    
    private void _init() throws UnknownHostException, MongoException, NoSuchAlgorithmException{
        connection = new Mongo(mongoDBHost, mongoDBPort);
        db = connection.getDB(dbName);
        collection = db.getCollection(collectionName);
        myFS = new GridFS(db);
    }
    
    /**
     * 用给出的id,保存文件,透明处理已存在的情况
     * id 可以是string,long,int,org.bson.types.ObjectId 类型
     * @param in
     * @param id
     */
    public void save(InputStream in, Object id){
        DBObject query  = new BasicDBObject("_id", id);
        GridFSDBFile gridFSDBFile = myFS.findOne(query);
        
        if(gridFSDBFile != null)
            return;
        
        GridFSInputFile gridFSInputFile = myFS.createFile(in);
        gridFSInputFile.save();
        return;
    }
    
    /**
     * 据id返回文件
     * @param id
     * @return
     */
    public GridFSDBFile getById(Object id){
        DBObject query  = new BasicDBObject("_id", id);
        GridFSDBFile gridFSDBFile = myFS.findOne(query);
        return gridFSDBFile;
    }
    
    /**
     * 据文件名返回文件,只返回第一个
     * @param fileName
     * @return
     */
    public GridFSDBFile getByFileName(String fileName){
        DBObject query  = new BasicDBObject("filename", fileName);
        GridFSDBFile gridFSDBFile = myFS.findOne(query);
        return gridFSDBFile;
    }
}

    nginx-gridfs模块的安装使用

    项目主页:https://github.com/mdirolf/nginx-gridfs

    通过nginx-gridfs,可以直接用http来访问GridFS中的文件。

    1. 安装

    安装各种依赖包:zlibpcreopenssl

    在ubuntu下可能是以下命令:

    sudo apt-get install zlib1g-dev            //貌似sudo apt-get install zlib-dev 不能安装

    sudo apt-get install libpcre3 libpcre3-dev

    sudo apt-get install openssl libssl-dev

    安装git(略)

    用git下载nginx-gridfs的代码:

    git clone git://github.com/mdirolf/nginx-gridfs.git

    cd nginx-gridfs

    git submodule init

    git submodule update

    下载nginx

    wget http://nginx.org/download/nginx-1.0.12.zip

    tar zxvf nginx-1.0.12.zip

    cd nginx-1.0.12

    ./configure --add-module=的路径>

    make

    sudo make install

    如果编译出错,则在configure时加上--with-cc-opt=-Wno-error 参数。

    2. 配置nginx

    在server的配置中加上以下

    location /pics/ {

                gridfs pics

                field=filename

                type=string;

                mongo 127.0.0.1:27017;

        }

    上面的配置表示:

     数据库是pics,通过文件名filename来访问文件,filename的类型是string

     目前只支持通过idfilename来访问文件。

     启动nginx/usr/local/nginx/sbin/nginx

     用MongoVUE把一个图片001.jpg上传到pics数据库中。

     打开:http://localhost/pics/001.jpg

     如果成功,则可以看到显示图片了。

     3. nginx-gridfs的不足

     没有实现httprange support,也就是断点续传,分片下载的功能。

     GridFS实现原理

     GridFS在数据库中,默认使用fs.chunksfs.files来存储文件。

     其中fs.files集合存放文件的信息,fs.chunks存放文件数据

     一个fs.files集合中的一条记录内容如下,即一个file的信息如下

    {
    "_id" : ObjectId("4f4608844f9b855c6c35e298"),       //唯一id,可以是用户自定义的类型
    "filename" : "CPU.txt",      //文件名
    "length" : 778,      //文件长度
    "chunkSize" : 262144,      //chunk的大小
    "uploadDate" : ISODate("2012-02-23T09:36:04.593Z"), //上传时间
    "md5" : "e2c789b036cfb3b848ae39a24e795ca6",      //文件的md5值
    "contentType" : "text/plain"      //文件的MIME类型
    "meta" : null     //文件的其它信息,默认是没有”meta”这个key,用户可以自己定义为任意BSON对象
    }
    对应的 fs.chunks 中的 chunk如下:
   { 
   "_id" : ObjectId("4f4608844f9b855c6c35e299"), 	 //chunk的id
   "files_id" : ObjectId("4f4608844f9b855c6c35e298"), 	//文件的id,对应fs.files中的对象,相当于fs.files集合的外键
   "n" : 0, 	 //文件的第几个chunk块,如果文件大于chunksize的话,会被分割成多个chunk块
   "data" : BinData(0,"QGV...")	 //文件的二进制数据,这里省略了具体内容
   }
   默认chunk的大小是256K。
   public static final int DEFAULT_CHUNKSIZE = 256 * 1024;
   所以在把文件存入到GridFS过程中,如果文件大于chunksize,则把文件分割成多个chunk,再把这些chunk保存到fs.chunks中,最后再把文件信息存入到fs.files中。
   在读取文件的时候,先据查询的条件,在fs.files中找到一个合适的记录,得到“_id”的值,再据这个值到fs.chunks中查找所有“files_id”为“_id”的chunk,并按“n”排序,最后依次读取chunk中“data”对象的内容,还原成原来的文件。
   自定义Gridfs的hash函数
   尽管从理论上,无论用什么hash函数,都有可能出现hash值相同,但内容不相同的文件,但是对于GridFS默认使用的md5算法,目前已出现长度和md5值都相同但内容不一样的文件。
   如果想要自已改用其它hash算法,可以从驱动入手。因为GridFS在MongoDB中实际也只是两个普通的集合,所以完全可以自已修改驱动,替换下hash算法即可。
   目前java版的驱动比较简单,可以很容易修改实现。
   但是要注意,这样不符合GridFS的规范了。
   注意事项
   1. GridFS不自动处理md5相同的文件,对于md5相同的文件,如果想在GridFS中只有一个存储,要用户自已处理。Md5值的计算由 客户端完成。
   2. 因为GridFS在上传文件过程中是先把文件数据保存到fs.chunks,最后再把文件信息保存到fs.files中,所以如果在上传文件过程中失败,有可能在fs.chunks中出现垃圾数据。这些垃圾数据可以定期清理掉。

你可能感兴趣的:(MongoDB)