先写个结论,sphinx本身是可以支持中文搜索的,只是不支持中文分词,需要安装中文分词插件,coreseek就是一个打包了mmseg中文分词插件和sphinx源码的安装包。
  
  概念讲解
  
  Sphinx全文搜索引擎
  
  一般用作大数据量的搜索支持
  
  Sphinx特性
  
  1:Sphinx支持高速建立索引(可达10MB/秒,而Lucene建立索引的速度是1.8MB/秒)
1.安装libiconv,这个是libdatrie的依赖项

wget http://ftp.gnu.org/pub/gnu/libiconv/libiconv-1.14.tar.gz  
tar zxvf libiconv-1.14.tar.gz  
cd libiconv-1.14  
./configure  
make  
make install  
转自:http://flyer0126.iteye.com/blog/1931212

早就想研究下敏感词过滤问题,今天有些时间,正好实践一下。
      1. 安装:libdatrie (http://linux.thai.net/~thep/datrie/datrie.html#Download)
关键词过滤扩展,用于检查一段文本中是否出现敏感词,基于Double-Array Trie 树实现。

安装步骤

下面的$LIB_PATH为依赖库安装目录,$INSTALL_PHP_PATH为PHP5安装目录。
Tags: , ,
分页: 1/1 第一页 1 最后页 [ 显示模式: 摘要 | 列表 ]