简介
全文检索主要用在大数据量时多字段模糊检索上能较大的提高检索效率。django实现全文检索功能主要靠haystack框架,而用的最多的全文检索引擎就是whoosh,jieba主要用于中文分词,whoosh自带的分词是英文的。要实现以上组合的全文检索,首先要安装这些模块:
pip install django-haystack
pip install whoosh
pip install jieba
配置haystack框架和whoosh引擎
安装好以上模块后,接下来要到项目的settings.py
中添加haystack
应用,配置whoosh搜索引擎。
#settings.py
INSTALLED_APPS = [
'django.contrib.admin',
'django.contrib.auth',
'django.contrib.contenttypes',
'django.contrib.sessions',
'django.contrib.messages',
'django.contrib.staticfiles',
'haystack',#全文检索框架
'book',
'user',
'recommend',
'library',
'comment',
]
HAYSTACK_CONNECTIONS = {
'default': {
#使用whoosh引擎
'ENGINE': 'haystack.backends.whoosh_cn_backend.WhooshEngine',
#索引文件路径
'PATH': os.path.join(BASE_DIR, 'whoosh_index'),
}
}
接下来到项目的urls.py
中添加全文检索的路由。
#项目的urls.py
urlpatterns = [
path('admin/', admin.site.urls),
path('',include('book.urls')),
path('book/', include('book.urls')),
path('user/', include('user.urls')),
path('recommend/', include('recommend.urls')),
path('library/', include('library.urls')),
path('comment/', include('comment.urls')),
path('search/', include('haystack.urls')),#全文检索路由
]
然后在要做全文检索的appbook
下创建search_indexes.py
文件,该文件是固定命名,内容如下:
from haystack import indexes#导入索引
from .models import Book_info#导入模型
#Book_infoIndex是固定格式命名,Book_info是你models.py中的类名
class Book_infoIndex(indexes.SearchIndex, indexes.Indexable):
text = indexes.CharField(document=True, use_template=True)
def get_model(self):
return Book_info
def index_queryset(self, using=None):
return self.get_model().objects.all()
然后到项目下的templates文件夹中依次创建search/indexes/book/目录,book
是你需要使用全文检索的app名,根据实际情况更改为自己的app名,book
前面的目录名是固定写法,不能更改。
在book目录下以"类名_text.txt
"格式创建搜索引擎的索引文件,如"book_info_text.txt
",book_info是book
app下的models.py中的一个类class Book_info(models.Model):
。
创建好txt文件后,在文件中输入要索引的字段。
{{ object.book_name }}
{{ object.book_author }}
{{ object.book_press }}
上面的内容我设置了Book_info数据库中的book_name
、book_author
、book_press
三个字段的全文索引。
中文分词设置
接下来设置中文分词,在系统根目录中查找haystack(windows系统查找对象是我的电脑,linux系统使用find / -name haystack
),找到C:\Users\cg\AppData\Local\Programs\Python\Python37-32\Lib\site-packages\haystack\backends
python安装包下的这个文件夹,在该文件夹下创建ChineseAnalyzer.py
,内容如下:
import jieba
from whoosh.analysis import Tokenizer, Token
class ChineseTokenizer(Tokenizer):
def __call__(self, value, positions=False, chars=False,
keeporiginal=False, removestops=True,
start_pos=0, start_char=0, mode='', **kwargs):
t = Token(positions, chars, removestops=removestops, mode=mode,
**kwargs)
seglist = jieba.cut(value, cut_all=True)
for w in seglist:
t.original = t.text = w
t.boost = 1.0
if positions:
t.pos = start_pos + value.find(w)
if chars:
t.startchar = start_char + value.find(w)
t.endchar = start_char + value.find(w) + len(w)
yield t
def ChineseAnalyzer():
return ChineseTokenizer()
复制whoosh_backend.py
,将名称改为whoosh_cn_backend.py
,打开该文件,引入中文分析类:
from .ChineseAnalyzer import ChineseAnalyzer
查找文件中analyzer=StemmingAnalyzer()
,将其改为analyzer=ChineseAnalyzer()
完成以上的配置就可以建立索引文件了,在项目终端下输入命令重建索引:
python manage.py rebuild_index
创建好索引文件后通过python manage.py update_index
来更新索引文件。
全文索引的使用
更改原来的检索模板文件:
上面的action
参数对应上文在项目urls.py
中设置的路由,代表表单提交到全文检索路由,input
输入中的name=q
参数是haystack的固定写法,q
代表查询的关键词。
用户提交检索后,系统将检索词提交给haystack,经过haystack查询后,默认结果返回到项目根目录下templates/search/search.html
文件,结果中主要包含以下关键参数:
query
:查询的关键词。
page
:当前页的page对象,通过该对象获取查询的数据。
paginator
:分页对象。
模板中主要代码如下:
检索到关于: “{{ query }}” 的图书,当前第 {{ page.number }} 页
{# 遍历检索图书结果 #}
{% for item in page %}
{{ item.object.book_name }}
{{ item.object.book_press }}
{% endfor %}
{# 分页 #}
需要注意的是:通过page对象遍历获取的对象属性,需要在中间增加object
,否则获取不到对象的属性。检索结果如下: