一个未经处理的数据库中,一般是以文档ID作为索引,文档内容作为记录
而倒排索引指的是,将单词或记录作为索引,将文档ID作为记录,这样便可以方便地通过索引来查找到其所在的文档
将数据库中的结构化数据数据转换为非结构化数据
然后将非结构化数据转化为分词结构
Django
使用haystackhaystack是django
的开源搜索框架,该框架支持 Solr,Elasticsearch,Whoosh, Xapian
搜索引擎,不用更改代码,直接切换引擎,减少代码量。
搜索引擎使用Whoosh,这是一个由纯Python实现的全文搜索引擎,没有二进制文件等,比较小
巧,配置比较简单,当然性能自然略低。
中文分词Jieba
,由于Whoosh自带的是英文分词,对中文的分词支持不是太好,故用jieba替换
whoosh的分词组件。
syl/settings.py
全文检索配置
'''1.注册app '''
INSTALLED_APPS = [
'haystack', # haystack要放在应用的上面
]
'''2.模板路径 '''
TEMPLATES = [
{
'DIRS':[os.path.join(BASE_DIR,'templates')],
}
]
'''3.全文检索配置'''
HAYSTACK_SEARCH_RESULTS_PER_PAGE = 15 # 搜索出多条数据时需要分页
HAYSTACK_CONNECTIONS = {
'default': {
'ENGINE': 'course.whoosh_cn_backend.MyWhooshEngine',
'PATH': os.path.join(BASE_DIR, 'whoosh_index'), # 指定倒排索引存放位置
}
}
# # ES引擎
# HAYSTACK_CONNECTIONS = {
# 'default': {
# 'ENGINE': 'haystack.backends.elasticsearch_backend.ElasticsearchSearchEngine',
# 'URL': 'http://10.211.55.15:9200/', # Elasticsearch服务器ip地址,端口号固 定为9200
# 'INDEX_NAME': 'syl', # Elasticsearch建立的反向索引库的名称
# },
# }
# 添加此项,当数据库改变时,会自动更新索引,非常方便
HAYSTACK_SIGNAL_PROCESSOR = 'haystack.signals.RealtimeSignalProcessor'
apps/course/search_indexes.py
# apps/course/search_indexes.py
# 文件名必须是 search_indexes.py
from haystack import indexes
from .models import Course
# 修改此处,类名为模型类的名称+Index,比如模型类为GoodsInfo,则这里类名为GoodsInfoIndex(其 实可以随便写)
class CourseIndex(indexes.SearchIndex, indexes.Indexable):
""" Course索引类 """
# text为索引字段 # document = True,这代表haystack和搜索引擎将使用此字段的内容作为索引进行检索
# use_template=True 指定根据表中的那些字段建立索引文件的说明放在一个文件中
text = indexes.CharField(document=True, use_template=True)
# 对那张表进行查询
def get_model(self): # 重载get_model方法,必须要有
"""返回建立索引的模型类"""
return Course # 返回这个model
# 建立索引的数据
def index_queryset(self, using=None):
"""返回要建立索引的数据查询集"""
# 这个方法返回什么内容,最终就会对那些方法建立索引,这里是对所有字段建立索引
return self.get_model().objects.all()
templates/search/indexes/course/course_text.txt
创建文件路径命名必须这个规范:templates/search/indexes/应用名称/模型类名称 text.txt
{{object.id}}
{{object.title}}
{{object.desc}}
jieba
分词中的中文分析器# apps/course/whoosh_cn_backend.py
# 更换 text 字段的 分析方式, 变为jieba分词中的中文分析器
from haystack.backends.whoosh_backend import WhooshEngine, WhooshSearchBackend
from whoosh.fields import TEXT
from jieba.analyse import ChineseAnalyzer
class MyWhooshSearchBackend(WhooshSearchBackend):
def build_schema(self, fields):
(content_field_name, schema) = super().build_schema(fields)
# 指定whoosh使用jieba进行分词
schema._fields['text'] = TEXT(stored=True,
analyzer=ChineseAnalyzer(),
field_boost=fields.get('text').boost,
sortable=True)
return (content_field_name, schema)
class MyWhooshEngine(WhooshEngine):
backend = MyWhooshSearchBackend
# course/views.py
from syl import settings
from django.core.paginator import InvalidPage, Paginator
from haystack.forms import ModelSearchForm
from django.http import JsonResponse
# 如果settings.py中配置就是用settings中配置的,否则就每页15条
RESULTS_PER_PAGE = getattr(settings, 'HAYSTACK_SEARCH_RESULTS_PER_PAGE', 15)
def course_index_search(request):
query = request.GET.get('q', None)
page = int(request.GET.get('page', 1))# 第几页
page_size = int(request.GET.get('page_size', RESULTS_PER_PAGE))# 每页多少条
if query:
form = ModelSearchForm(request.GET, load_all=True) # 将查询条件传递给查询对 象
if form.is_valid():
results = form.search() # 查询出来的最终数据
else:
results = []
else:
return JsonResponse({"code": 404, "msg": 'No file found!', "data": []})
# 对结果集进行分页
paginator = Paginator(results, page_size)
try:
page = paginator.page(page) # 从分好的页中拿第几页
except InvalidPage: # 如果分页出错
return JsonResponse({"code": 404, "msg": 'No file found!', "data": []})
jsondata = []
for result in page.object_list: # 分页后的课程查询结果
data = {
'id': result.object.id,
'title': result.object.title,
'desc': result.object.desc,
'img':
request.scheme + '://' + request.META['HTTP_HOST'] + result.object.img.url,
# 'follower': result.object.follower,
'learner': result.object.learner,
'status': result.object.status,
'course_type': result.object.course_type.id
}
jsondata.append(data)
result = {
"code": 200,
"msg": 'Search successfully!',
"data": {"count": page.paginator.count, "results": jsondata}
}
return JsonResponse(result)
syl/urls.py
添加路由urlpatterns = [
path('search/', course_index_search),
]
python manage.py rebuild_index