仿造Baidu简单实现基于Lucene.net的全文检索的功能
Lucene.Net
Lucene.net是 Lucene 的.net移植版本,是一个开源的全文检索引擎开发包,即 它不是一个完整的全文检索引擎 ,而是一个全文检索引擎的架构,是一个Library.你也可以把它理解为一个将索引,搜索功能封装的很好的一套简单易用的API(提供了完整的查询引擎和索引引擎)。利用这套API你可以做很多有关搜索的事情,而且很方便.。开发人员可以基于Lucene.net实现 全文检索 的功能。
注意:Lucene.Net只能对文本信息进行检索。如果不是文本信息,要转换为文本信息,比如要检索Excel文件,就要用NPOI把Excel读取成字符串,然后把字符串扔给Lucene.Net。Lucene.Net会把扔给它的文本 切词 保存,加快检索速度。
更多概念性的知识可以参考这篇博文: http://blog.csdn.net/xiucool/archive/2008/11/28/3397182.aspx
这个小Demo样例展示:
ok,接下来就细细详解下士怎样一步一步实现这个效果的。
Lucene.Net 核心——分词算法(Analyzer)
学习Lucune.Net,分词是核心。当然最理想状态下是能自己扩展分词,但这要很高的算法要求。Lucene.Net中不同的分词算法就是不同的类。所有分词算法类都从Analyzer类继承,不同的分词算法有不同的优缺点。
内置的StandardAnalyzer是将 英文按照空格、标点符号等进行分词,将中文按照单个字进行分词,一个汉字算一个词
Analyzer analyzer = new StandardAnalyzer();
TokenStream tokenStream = analyzer.TokenStream( "" , new StringReader( "Hello Lucene.Net,我1爱1你China " ));
Lucene.Net.Analysis.Token token = null ;
while ((token = tokenStream.Next()) != null )
{
Console.WriteLine(token.TermText());
}
分词后结果:
二元分词算法, 每两个汉字算一个单词 ,“我爱你China”会分词为“我爱 爱你 china”, 点击 查看 二元分词算法CJKAnalyzer。
Analyzer analyzer = new CJKAnalyzer();
TokenStream tokenStream = analyzer.TokenStream( "" , new StringReader( " 我爱你中国China中华人名共和国 " ));
Lucene.Net.Analysis.Token token = null ;
while ((token = tokenStream.Next()) != null )
{
Response.Write(token.TermText() + " <br/> " );
}
这时,你肯定在想,上面没有一个好用的,二元分词算法乱枪打鸟,很想自己扩展Analyzer,但并不是算法上的专业人士。怎么办?
天降圣器, 盘古分词 , 点击下载 。
Lucene.Net核心类简介(一)
Directory表示索引文件(Lucene.net用来保存用户扔过来的数据的地方)保存的地方,是 抽象类 ,两个子类FSDirectory(文件中)、RAMDirectory (内存中)。
IndexReader对索引进行读取的类,对IndexWriter进行写的类。
IndexReader的静态方法bool IndexExists(Directory directory)判断目录directory是否是一个索引目录。IndexWriter的bool IsLocked(Directory directory) 判断目录是否锁定,在对目录写之前会先把目录锁定。两个IndexWriter没法同时写一个索引文件。IndexWriter在进行写操作的时候会自动加锁,close的时候会自动解锁。IndexWriter.Unlock方法手动解锁(比如还没来得及close IndexWriter 程序就崩溃了,可能造成一直被锁定)。
创建索引库操作:
构造函数:IndexWriter(Directory dir, Analyzer a, bool create, MaxFieldLength mfl)因为IndexWriter把输入写入索引的时候,Lucene.net是把写入的文件用指定的分词器将文章分词(这样检索的时候才能查的快),然后将词放入索引文件。
void AddDocument(Document doc),向索引中添加文档(Insert)。Document类代表要索引的文档(文章),最重要的方法Add(Field field),向文档中添加字段。Document是一片文档,Field是字段(属性)。 Document相当于一条记录 , Field相当于字段 。
Field类的构造函数 Field(string name, string value, Field.Store store, Field.Index index, Field.TermVector termVector): name表示字段名; value表示字段值; store表示是否存储value值, 可选值 Field.Store.YES存储, Field.Store.NO不存储, Field.Store.COMPRESS压缩存储 ;默认只保存分词以后的一堆词,而不保存分词之前的内容,搜索的时候无法根据分词后的东西还原原文,因此如果要显示原文(比如文章正文)则需要设置存储。 index表示如何创建索引,可选值Field.Index. NOT_ANALYZED ,不创建索引,Field.Index. ANALYZED,创建索引 ;创建索引的字段才可以比较好的检索。是否碎尸万段!是否需要按照这个字段进行“全文检索”。 termVector表示如何保存索引词之间的距离。“北京欢迎你们大家”,索引中是如何保存“北京”和“大家”之间“隔多少单词”。方便只检索在一定距离之内的词。
private void CreateIndex()
{
// 索引库存放在这个文件夹里
string indexPath = ConfigurationManager.AppSettings[ " pathIndex " ];
// Directory表示索引文件保存的地方,是抽象类,两个子类FSDirectory表示文件中,RAMDirectory 表示存储在内存中
FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NativeFSLockFactory());
// 判断目录directory是否是一个索引目录。
bool isUpdate = IndexReader.IndexExists(directory);
logger.Debug( " 索引库存在状态: " + isUpdate);
if (isUpdate)
{
if (IndexWriter.IsLocked(directory))
{
IndexWriter.Unlock(directory);
}
}
// 第三个参数为是否创建索引文件夹,Bool Create,如果为True,则新创建的索引会覆盖掉原来的索引文件,反之,则不必创建,更新即可。
IndexWriter write = new IndexWriter(directory, new PanGuAnalyzer(), ! isUpdate, IndexWriter.MaxFieldLength.UNLIMITED);
WebClient wc = new WebClient();
// 编码,防止乱码
wc.Encoding = Encoding.UTF8;
int maxID;
try
{
// 读取rss,获得第一个item中的链接的编号部分就是最大的帖子编号
maxID = GetMaxID();
}
catch (WebException webEx)
{
logger.Error( " 获得最大帖子号出错 " ,webEx);
return ;
}
for ( int i = 1 ; i <= maxID; i++ )
{
try
{
string url = " http://localhost:8080/showtopic- " + i + " .aspx " ;
logger.Debug( " 开始下载: " + url);
string html = wc.DownloadString(url);
HTMLDocumentClass doc = new HTMLDocumentClass();
doc.designMode = " on " ; // 不让解析引擎尝试去执行
doc.IHTMLDocument2_write(html);
doc.close();
string title = doc.title;
string body = doc.body.innerText;
// 为避免重复索引,先输出number=i的记录,在重新添加
write.DeleteDocuments( new Term( " number " , i.ToString()));
Document document = new Document();
// Field为字段,只有对全文检索的字段才分词,Field.Store是否存储
document.Add( new Field( " number " , i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED));
document.Add( new Field( " title " , title, Field.Store.YES, Field.Index.NOT_ANALYZED));
document.Add( new Field( " body " , body, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS));
write.AddDocument(document);
logger.Debug( " 索引 " + i.ToString() + " 完毕 " );
}
catch (WebException webEx)
{
logger.Error( " 下载 " +i.ToString()+ " 失败 " ,webEx);
}
}
write.Close();
directory.Close();
logger.Debug( " 全部索引完毕 " );
}
// 取最大帖子号
private int GetMaxID()
{
XDocument xdoc = XDocument.Load( " Http://localhost:8080/tools/rss.aspx " );
XElement channel = xdoc.Root.Element( " channel " );
XElement fitstItem = channel.Elements( " item " ).First();
XElement link = fitstItem.Element( " link " );
Match match = Regex.Match(link.Value, @" http://localhost:8080/showtopic-(\d+)\.aspx " );
string id = match.Groups[ 1 ].Value;
return Convert.ToInt32(id);
}
这样就创建了索引库,利用WebClient爬去所有网页的内容,这儿需要你添加引用 Microsoft mshtml 组件, MSHTML是微软公司的一个COM组件,该组件封装了HTML语言中的所有元素及其属性,通过其提供的标准接口,可以访问指定网页的所有元素。
当然,创建索引库最好定时给我们自动创建,类似于Windows计划任务。
在 这儿 你可以了解 Quartz.Net
首先添加对其(我这个版本有两个,一个是Quartz.dll,还有一个是Common.Logging)的引用,貌似两个缺一不可,否则会报错,类似于文件路径错误。
在Global里配置如下:
public class Global : System.Web.HttpApplication
{
private static ILog logger = LogManager.GetLogger( typeof (Global));
private IScheduler sched;
protected void Application_Start( object sender, EventArgs e)
{
// 控制台就放在Main
logger.Debug( " Application_Start " );
log4net.Config.XmlConfigurator.Configure();
// 从配置中读取任务启动时间
int indexStartHour = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartHour " ]);
int indexStartMin = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartMin " ]);
ISchedulerFactory sf = new StdSchedulerFactory();
sched = sf.GetScheduler();
JobDetail job = new JobDetail( " job1 " , " group1 " , typeof (IndexJob)); // IndexJob为实现了IJob接口的类
Trigger trigger = TriggerUtils.MakeDailyTrigger( " tigger1 " , indexStartHour, indexStartMin); // 每天10点3分执行
trigger.JobName = " job1 " ;
trigger.JobGroup = " group1 " ;
trigger.Group = " group1 " ;
sched.AddJob(job, true );
sched.ScheduleJob(trigger);
// IIS启动了就不会来了
sched.Start();
}
protected void Session_Start( object sender, EventArgs e)
{
}
protected void Application_BeginRequest( object sender, EventArgs e)
{
}
protected void Application_AuthenticateRequest( object sender, EventArgs e)
{
}
protected void Application_Error( object sender, EventArgs e)
{
logger.Debug( " 网络出现未处理异常: " ,HttpContext.Current.Server.GetLastError());
}
protected void Session_End( object sender, EventArgs e)
{
}
protected void Application_End( object sender, EventArgs e)
{
logger.Debug( " Application_End " );
sched.Shutdown( true );
}
}
最后我们的Job去做任务,但需要实现IJob接口
public class IndexJob:IJob
{
private ILog logger = LogManager.GetLogger( typeof (IndexJob));
public void Execute(JobExecutionContext context)
{
try
{
logger.Debug( " 索引开始 " );
CreateIndex();
logger.Debug( " 索引结束 " );
}
catch (Exception ex)
{
logger.Debug( " 启动索引任务异常 " , ex);
}
}
}
Ok,我们的索引库建立完了,接下来就是搜索了。
Lucene.Net核心类简介(二)
IndexSearcher是进行搜索的类 ,构造函数传递一个IndexReader。IndexSearcher的void Search(Query query, Filter filter, Collector results)方法用来搜索,Query是查询条件, filter目前传递null, results是检索结果,TopScoreDocCollector.create(1000, true)方法创建一个Collector,1000表示最多结果条数,Collector就是一个结果收集器。
Query有很多子类,PhraseQuery是一个子类。 PhraseQuery用来进行多个关键词的检索,调用Add方法添加关键词,query.Add(new Term("字段名", 关键词)), PhraseQuery. SetSlop(int slop)用来设置关键词之间的最大距离,默认是0 ,设置了Slop以后哪怕文档中两个关键词之间没有紧挨着也能找到。 query.Add(new Term("字段名", 关键词)) query.Add(new Term("字段名", 关键词2)) 类似于:where 字段名 contains 关键词 and 字段名 contais 关键词2
调用TopScoreDocCollector的GetTotalHits()方法得到搜索结果条数,调用Hits的TopDocs TopDocs(int start, int howMany)得到一个范围内的结果(分页) ,TopDocs的scoreDocs字段是结果ScoreDoc数组, ScoreDoc 的doc字段为Lucene.Net为文档分配的id(为降低内存占用,只先返回文档id),根据这个id调用searcher的Doc方法就能拿到Document了(放进去的是Document,取出来的也是Document);调用doc.Get("字段名")可以得到文档指定字段的值, 注意只有Store.YES的字段才能得到,因为Store.NO的没有保存全部内容,只保存了分割后的词。
搜索的代码:
查看盘古分词文档找到高亮显示:
private string Preview( string body, string keyword)
{
PanGu.HighLight.SimpleHTMLFormatter simpleHTMLFormatter = new PanGu.HighLight.SimpleHTMLFormatter( " <font color=\"Red\"> " , " </font> " );
PanGu.HighLight.Highlighter highlighter = new PanGu.HighLight.Highlighter(simpleHTMLFormatter, new Segment());
highlighter.FragmentSize = 100 ;
string bodyPreview = highlighter.GetBestFragment(keyword, body);
return bodyPreview;
}
因为我们页面刚进入需要加载热词,为了减轻服务端压力,缓存的使用能使我们解决这一问题。
既然是热词,当然是最近几天搜索量最多的, 故Sql语句需要考虑指定的时间之内的搜索数量的排序。
public IEnumerable<Model.SearchSum> GetHotWords()
{
// 缓存
var data=HttpRuntime.Cache[ " hotwords " ];
if (data== null )
{
IEnumerable <Model.SearchSum> hotWords = DoSelect();
HttpRuntime.Cache.Insert( " hotwords " ,hotWords, null ,DateTime.Now.AddMilliseconds( 30 ),TimeSpan.Zero );
return hotWords;
}
return (IEnumerable<Model.SearchSum> )data;
}
private IEnumerable<Model.SearchSum> DoSelect()
{
DataTable dt = SqlHelper.ExecuteDataTable( @"
select top 5 Keyword,count(*) as searchcount from keywords
where datediff(day,searchdatetime,getdate())<7
group by Keyword
order by count(*) desc " );
List <Model.SearchSum> list = new List<Model.SearchSum> ();
if (dt!= null &&dt.Rows!= null &&dt.Rows.Count> 0 )
{
foreach (DataRow row in dt.Rows)
{
Model.SearchSum oneModel = new Model.SearchSum ();
oneModel.Keyword = Convert.ToString(row[ " keyword " ]);
oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]);
list.Add(oneModel);
}
}
return list;
}
搜索建议,类似于Baidu搜索时下拉提示框,Jquery UI模拟,下面是获取根据搜索数量最多的进行排序,得到IEnumerable<Model.SearchSum>集合
public IEnumerable<Model.SearchSum> GetSuggestion( string kw)
{
DataTable dt = SqlHelper.ExecuteDataTable( @" select top 5 Keyword,count(*) as searchcount from keywords
where datediff(day,searchdatetime,getdate())<7
and keyword like @keyword
group by Keyword
order by count(*) desc " , new SqlParameter( " @keyword " , " % " +kw+ " % " ));
List <Model.SearchSum> list = new List<Model.SearchSum> ();
if (dt != null && dt.Rows != null && dt.Rows.Count > 0 )
{
foreach (DataRow row in dt.Rows)
{
Model.SearchSum oneModel = new Model.SearchSum();
oneModel.Keyword = Convert.ToString(row[ " keyword " ]);
oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]);
list.Add(oneModel);
}
}
return list;
}
最关键的搜索代码,详见注释和上面Lucene.Net核心类二:
protected void Page_Load( object sender, EventArgs e)
{
// 加载热词
hotwordsRepeater.DataSource = new Dao.KeywordDao().GetHotWords();
hotwordsRepeater.DataBind();
kw = Request[ " kw " ];
if ( string .IsNullOrWhiteSpace(kw))
{
return ;
}
// 处理:将用户的搜索记录加入数据库,方便统计热词
Model.SerachKeyword model = new Model.SerachKeyword();
model.Keyword = kw;
model.SearchDateTime = DateTime.Now;
model.ClinetAddress = Request.UserHostAddress;
new Dao.KeywordDao().Add(model);
// 分页控件
MyPage pager = new MyPage();
pager.TryParseCurrentPageIndex(Request[ " pagenum " ]);
// 超链接href属性
pager.UrlFormat = " CreateIndex.aspx?pagenum={n}&kw= " + Server.UrlEncode(kw);
int startRowIndex = (pager.CurrentPageIndex - 1 ) * pager.PageSize;
int totalCount = - 1 ;
List <SearchResult> list = DoSearch(startRowIndex,pager.PageSize, out totalCount);
pager.TotalCount = totalCount;
RenderToHTML = pager.RenderToHTML();
dataRepeater.DataSource = list;
dataRepeater.DataBind();
}
private List<SearchResult> DoSearch( int startRowIndex, int pageSize, out int totalCount)
{
string indexPath = " C:/Index " ;
FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NoLockFactory());
IndexReader reader = IndexReader.Open(directory, true );
// IndexSearcher是进行搜索的类
IndexSearcher searcher = new IndexSearcher(reader);
PhraseQuery query = new PhraseQuery();
foreach ( string word in CommonHelper.SplitWord(kw))
{
query.Add( new Term( " body " , word));
}
query.SetSlop( 100 ); // 相聚100以内才算是查询到
TopScoreDocCollector collector = TopScoreDocCollector.create( 1024 , true ); // 最大1024条记录
searcher.Search(query, null , collector);
totalCount = collector.GetTotalHits(); // 返回总条数
ScoreDoc[] docs = collector.TopDocs(startRowIndex, pageSize).scoreDocs; // 分页,下标应该从0开始吧,0是第一条记录
List<SearchResult> list = new List<SearchResult> ();
for ( int i = 0 ; i < docs.Length; i++ )
{
int docID = docs[i].doc; // 取文档的编号,这个是主键,lucene.net分配
// 检索结果中只有文档的id,如果要取Document,则需要Doc再去取
// 降低内容占用
Document doc = searcher.Doc(docID);
string number = doc.Get( " number " );
string title = doc.Get( " title " );
string body = doc.Get( " body " );
SearchResult searchResult = new SearchResult() { Number = number, Title = title, BodyPreview = Preview(body, kw) };
list.Add(searchResult);
}
return list;
}
Jquery UI模拟Baidu下拉提示和数据的绑定
<script type= " text/javascript " >
$(function () {
$( " #txtKeyword " ).autocomplete(
{ source: " SearchSuggestion.ashx " ,
select : function ( event , ui) { $( " #txtKeyword " ).val(ui.item.value); $( " #form1 " ).submit(); }
});
});
</script>
<div align= " center " >
<input type= " text " id= " txtKeyword " name= " kw " value= ' <%=kw %> ' />
<%-- <asp:Button ID= " createIndexButton " runat= " server " onclick= " searchButton_Click "
Text = " 创建索引库 " />--%>
<input type= " submit " name= " searchButton " value= " 搜索 " style= " 91px " /><br />
</div>
<br />
<ul id= " hotwordsUL " >
<asp:Repeater ID= " hotwordsRepeater " runat= " server " >
<ItemTemplate>
<li><a href= ' CreateIndex.aspx?kw=<%#Eval("Keyword") %> ' ><%#Eval( " Keyword " ) %></a></li>
</ItemTemplate>
</asp:Repeater>
</ul>
<br />
<asp:Repeater ID= " dataRepeater " runat= " server " EnableViewState= " true " >
<HeaderTemplate>
<ul>
</HeaderTemplate>
<ItemTemplate>
<li>
<a href= ' http://localhost:8080/showtopic-<%#Eval("Number") %>.aspx ' ><%#Eval( " Title " ) %></a>
<br />
<%#Eval( " BodyPreview " ) %>
</li>
</ItemTemplate>
<FooterTemplate>
</ul>
</FooterTemplate>
</asp:Repeater>
<br />
<div class = " pager " ><%=RenderToHTML%></div>
小结
很巧,一年前我的微薄上的签名是七月能有31天,是给我的最大恩惠。现在,此刻,还是很一年前那样烦躁,不知所措,又是7月31日,那样的熟悉。
大三的这个夏天,和往常那样,静静的坐着,看到了凌晨的晨曦,那样安静,祥和。
再过20天,即将投出第一份简历,一切都来得那样快,让人不知所措。
或许,明年的7月31日,不再这么悲伤。
想起了,天下足球里对亨利的描述:
还是回到伦敦吧,通往海布里的列车一趟一趟运行着,
这里总会送走过去,迎来新生,
32岁的亨利就坐在那儿,深情的目光望过去,远远都是自己22岁的影子...
点击附件下载:
本博客为 木宛城主 原创,基于 Creative Commons Attribution 2.5 China Mainland License 发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名 木宛城主 (包含链接)。如您有任何疑问或者授权方面的协商,请给我留言。
分类: ASP.NET , Lucene.Net
标签: Lucene.Net
作者: Leo_wl
出处: http://www.cnblogs.com/Leo_wl/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
版权信息
查看更多关于仿造Baidu简单实现基于Lucene.net的全文检索的功能的详细内容...
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did48357
Lucene.net是 Lucene 的.net移植版本,是一个开源的全文检索引擎开发包,即 它不是一个完整的全文检索引擎 ,而是一个全文检索引擎的架构,是一个Library.你也可以把它理解为一个将索引,搜索功能封装的很好的一套简单易用的API(提供了完整的查询引擎和索引引擎)。利用这套API你可以做很多有关搜索的事情,而且很方便.。开发人员可以基于Lucene.net实现 全文检索 的功能。
注意:Lucene.Net只能对文本信息进行检索。如果不是文本信息,要转换为文本信息,比如要检索Excel文件,就要用NPOI把Excel读取成字符串,然后把字符串扔给Lucene.Net。Lucene.Net会把扔给它的文本 切词 保存,加快检索速度。
更多概念性的知识可以参考这篇博文: http://blog.csdn.net/xiucool/archive/2008/11/28/3397182.aspx
这个小Demo样例展示:
ok,接下来就细细详解下士怎样一步一步实现这个效果的。
Lucene.Net 核心——分词算法(Analyzer)
学习Lucune.Net,分词是核心。当然最理想状态下是能自己扩展分词,但这要很高的算法要求。Lucene.Net中不同的分词算法就是不同的类。所有分词算法类都从Analyzer类继承,不同的分词算法有不同的优缺点。
内置的StandardAnalyzer是将 英文按照空格、标点符号等进行分词,将中文按照单个字进行分词,一个汉字算一个词
Analyzer analyzer = new StandardAnalyzer();
TokenStream tokenStream = analyzer.TokenStream( "" , new StringReader( "Hello Lucene.Net,我1爱1你China " ));
Lucene.Net.Analysis.Token token = null ;
while ((token = tokenStream.Next()) != null )
{
Console.WriteLine(token.TermText());
}
分词后结果:
二元分词算法, 每两个汉字算一个单词 ,“我爱你China”会分词为“我爱 爱你 china”, 点击 查看 二元分词算法CJKAnalyzer。
Analyzer analyzer = new CJKAnalyzer();
TokenStream tokenStream = analyzer.TokenStream( "" , new StringReader( " 我爱你中国China中华人名共和国 " ));
Lucene.Net.Analysis.Token token = null ;
while ((token = tokenStream.Next()) != null )
{
Response.Write(token.TermText() + " <br/> " );
}
这时,你肯定在想,上面没有一个好用的,二元分词算法乱枪打鸟,很想自己扩展Analyzer,但并不是算法上的专业人士。怎么办?
天降圣器, 盘古分词 , 点击下载 。
Lucene.Net核心类简介(一)
Directory表示索引文件(Lucene.net用来保存用户扔过来的数据的地方)保存的地方,是 抽象类 ,两个子类FSDirectory(文件中)、RAMDirectory (内存中)。
IndexReader对索引进行读取的类,对IndexWriter进行写的类。
IndexReader的静态方法bool IndexExists(Directory directory)判断目录directory是否是一个索引目录。IndexWriter的bool IsLocked(Directory directory) 判断目录是否锁定,在对目录写之前会先把目录锁定。两个IndexWriter没法同时写一个索引文件。IndexWriter在进行写操作的时候会自动加锁,close的时候会自动解锁。IndexWriter.Unlock方法手动解锁(比如还没来得及close IndexWriter 程序就崩溃了,可能造成一直被锁定)。
创建索引库操作:
构造函数:IndexWriter(Directory dir, Analyzer a, bool create, MaxFieldLength mfl)因为IndexWriter把输入写入索引的时候,Lucene.net是把写入的文件用指定的分词器将文章分词(这样检索的时候才能查的快),然后将词放入索引文件。
void AddDocument(Document doc),向索引中添加文档(Insert)。Document类代表要索引的文档(文章),最重要的方法Add(Field field),向文档中添加字段。Document是一片文档,Field是字段(属性)。 Document相当于一条记录 , Field相当于字段 。
Field类的构造函数 Field(string name, string value, Field.Store store, Field.Index index, Field.TermVector termVector): name表示字段名; value表示字段值; store表示是否存储value值, 可选值 Field.Store.YES存储, Field.Store.NO不存储, Field.Store.COMPRESS压缩存储 ;默认只保存分词以后的一堆词,而不保存分词之前的内容,搜索的时候无法根据分词后的东西还原原文,因此如果要显示原文(比如文章正文)则需要设置存储。 index表示如何创建索引,可选值Field.Index. NOT_ANALYZED ,不创建索引,Field.Index. ANALYZED,创建索引 ;创建索引的字段才可以比较好的检索。是否碎尸万段!是否需要按照这个字段进行“全文检索”。 termVector表示如何保存索引词之间的距离。“北京欢迎你们大家”,索引中是如何保存“北京”和“大家”之间“隔多少单词”。方便只检索在一定距离之内的词。
private void CreateIndex()
{
// 索引库存放在这个文件夹里
string indexPath = ConfigurationManager.AppSettings[ " pathIndex " ];
// Directory表示索引文件保存的地方,是抽象类,两个子类FSDirectory表示文件中,RAMDirectory 表示存储在内存中
FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NativeFSLockFactory());
// 判断目录directory是否是一个索引目录。
bool isUpdate = IndexReader.IndexExists(directory);
logger.Debug( " 索引库存在状态: " + isUpdate);
if (isUpdate)
{
if (IndexWriter.IsLocked(directory))
{
IndexWriter.Unlock(directory);
}
}
// 第三个参数为是否创建索引文件夹,Bool Create,如果为True,则新创建的索引会覆盖掉原来的索引文件,反之,则不必创建,更新即可。
IndexWriter write = new IndexWriter(directory, new PanGuAnalyzer(), ! isUpdate, IndexWriter.MaxFieldLength.UNLIMITED);
WebClient wc = new WebClient();
// 编码,防止乱码
wc.Encoding = Encoding.UTF8;
int maxID;
try
{
// 读取rss,获得第一个item中的链接的编号部分就是最大的帖子编号
maxID = GetMaxID();
}
catch (WebException webEx)
{
logger.Error( " 获得最大帖子号出错 " ,webEx);
return ;
}
for ( int i = 1 ; i <= maxID; i++ )
{
try
{
string url = " http://localhost:8080/showtopic- " + i + " .aspx " ;
logger.Debug( " 开始下载: " + url);
string html = wc.DownloadString(url);
HTMLDocumentClass doc = new HTMLDocumentClass();
doc.designMode = " on " ; // 不让解析引擎尝试去执行
doc.IHTMLDocument2_write(html);
doc.close();
string title = doc.title;
string body = doc.body.innerText;
// 为避免重复索引,先输出number=i的记录,在重新添加
write.DeleteDocuments( new Term( " number " , i.ToString()));
Document document = new Document();
// Field为字段,只有对全文检索的字段才分词,Field.Store是否存储
document.Add( new Field( " number " , i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED));
document.Add( new Field( " title " , title, Field.Store.YES, Field.Index.NOT_ANALYZED));
document.Add( new Field( " body " , body, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS));
write.AddDocument(document);
logger.Debug( " 索引 " + i.ToString() + " 完毕 " );
}
catch (WebException webEx)
{
logger.Error( " 下载 " +i.ToString()+ " 失败 " ,webEx);
}
}
write.Close();
directory.Close();
logger.Debug( " 全部索引完毕 " );
}
// 取最大帖子号
private int GetMaxID()
{
XDocument xdoc = XDocument.Load( " Http://localhost:8080/tools/rss.aspx " );
XElement channel = xdoc.Root.Element( " channel " );
XElement fitstItem = channel.Elements( " item " ).First();
XElement link = fitstItem.Element( " link " );
Match match = Regex.Match(link.Value, @" http://localhost:8080/showtopic-(\d+)\.aspx " );
string id = match.Groups[ 1 ].Value;
return Convert.ToInt32(id);
}
这样就创建了索引库,利用WebClient爬去所有网页的内容,这儿需要你添加引用 Microsoft mshtml 组件, MSHTML是微软公司的一个COM组件,该组件封装了HTML语言中的所有元素及其属性,通过其提供的标准接口,可以访问指定网页的所有元素。
当然,创建索引库最好定时给我们自动创建,类似于Windows计划任务。
在 这儿 你可以了解 Quartz.Net
首先添加对其(我这个版本有两个,一个是Quartz.dll,还有一个是Common.Logging)的引用,貌似两个缺一不可,否则会报错,类似于文件路径错误。
在Global里配置如下:
public class Global : System.Web.HttpApplication
{
private static ILog logger = LogManager.GetLogger( typeof (Global));
private IScheduler sched;
protected void Application_Start( object sender, EventArgs e)
{
// 控制台就放在Main
logger.Debug( " Application_Start " );
log4net.Config.XmlConfigurator.Configure();
// 从配置中读取任务启动时间
int indexStartHour = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartHour " ]);
int indexStartMin = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartMin " ]);
ISchedulerFactory sf = new StdSchedulerFactory();
sched = sf.GetScheduler();
JobDetail job = new JobDetail( " job1 " , " group1 " , typeof (IndexJob)); // IndexJob为实现了IJob接口的类
Trigger trigger = TriggerUtils.MakeDailyTrigger( " tigger1 " , indexStartHour, indexStartMin); // 每天10点3分执行
trigger.JobName = " job1 " ;
trigger.JobGroup = " group1 " ;
trigger.Group = " group1 " ;
sched.AddJob(job, true );
sched.ScheduleJob(trigger);
// IIS启动了就不会来了
sched.Start();
}
protected void Session_Start( object sender, EventArgs e)
{
}
protected void Application_BeginRequest( object sender, EventArgs e)
{
}
protected void Application_AuthenticateRequest( object sender, EventArgs e)
{
}
protected void Application_Error( object sender, EventArgs e)
{
logger.Debug( " 网络出现未处理异常: " ,HttpContext.Current.Server.GetLastError());
}
protected void Session_End( object sender, EventArgs e)
{
}
protected void Application_End( object sender, EventArgs e)
{
logger.Debug( " Application_End " );
sched.Shutdown( true );
}
}
最后我们的Job去做任务,但需要实现IJob接口
public class IndexJob:IJob
{
private ILog logger = LogManager.GetLogger( typeof (IndexJob));
public void Execute(JobExecutionContext context)
{
try
{
logger.Debug( " 索引开始 " );
CreateIndex();
logger.Debug( " 索引结束 " );
}
catch (Exception ex)
{
logger.Debug( " 启动索引任务异常 " , ex);
}
}
}
Ok,我们的索引库建立完了,接下来就是搜索了。
Lucene.Net核心类简介(二)
IndexSearcher是进行搜索的类 ,构造函数传递一个IndexReader。IndexSearcher的void Search(Query query, Filter filter, Collector results)方法用来搜索,Query是查询条件, filter目前传递null, results是检索结果,TopScoreDocCollector.create(1000, true)方法创建一个Collector,1000表示最多结果条数,Collector就是一个结果收集器。
Query有很多子类,PhraseQuery是一个子类。 PhraseQuery用来进行多个关键词的检索,调用Add方法添加关键词,query.Add(new Term("字段名", 关键词)), PhraseQuery. SetSlop(int slop)用来设置关键词之间的最大距离,默认是0 ,设置了Slop以后哪怕文档中两个关键词之间没有紧挨着也能找到。 query.Add(new Term("字段名", 关键词)) query.Add(new Term("字段名", 关键词2)) 类似于:where 字段名 contains 关键词 and 字段名 contais 关键词2
调用TopScoreDocCollector的GetTotalHits()方法得到搜索结果条数,调用Hits的TopDocs TopDocs(int start, int howMany)得到一个范围内的结果(分页) ,TopDocs的scoreDocs字段是结果ScoreDoc数组, ScoreDoc 的doc字段为Lucene.Net为文档分配的id(为降低内存占用,只先返回文档id),根据这个id调用searcher的Doc方法就能拿到Document了(放进去的是Document,取出来的也是Document);调用doc.Get("字段名")可以得到文档指定字段的值, 注意只有Store.YES的字段才能得到,因为Store.NO的没有保存全部内容,只保存了分割后的词。
搜索的代码:
查看盘古分词文档找到高亮显示:
private string Preview( string body, string keyword)
{
PanGu.HighLight.SimpleHTMLFormatter simpleHTMLFormatter = new PanGu.HighLight.SimpleHTMLFormatter( " <font color=\"Red\"> " , " </font> " );
PanGu.HighLight.Highlighter highlighter = new PanGu.HighLight.Highlighter(simpleHTMLFormatter, new Segment());
highlighter.FragmentSize = 100 ;
string bodyPreview = highlighter.GetBestFragment(keyword, body);
return bodyPreview;
}
因为我们页面刚进入需要加载热词,为了减轻服务端压力,缓存的使用能使我们解决这一问题。
既然是热词,当然是最近几天搜索量最多的, 故Sql语句需要考虑指定的时间之内的搜索数量的排序。
public IEnumerable<Model.SearchSum> GetHotWords()
{
// 缓存
var data=HttpRuntime.Cache[ " hotwords " ];
if (data== null )
{
IEnumerable <Model.SearchSum> hotWords = DoSelect();
HttpRuntime.Cache.Insert( " hotwords " ,hotWords, null ,DateTime.Now.AddMilliseconds( 30 ),TimeSpan.Zero );
return hotWords;
}
return (IEnumerable<Model.SearchSum> )data;
}
private IEnumerable<Model.SearchSum> DoSelect()
{
DataTable dt = SqlHelper.ExecuteDataTable( @"
select top 5 Keyword,count(*) as searchcount from keywords
where datediff(day,searchdatetime,getdate())<7
group by Keyword
order by count(*) desc " );
List <Model.SearchSum> list = new List<Model.SearchSum> ();
if (dt!= null &&dt.Rows!= null &&dt.Rows.Count> 0 )
{
foreach (DataRow row in dt.Rows)
{
Model.SearchSum oneModel = new Model.SearchSum ();
oneModel.Keyword = Convert.ToString(row[ " keyword " ]);
oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]);
list.Add(oneModel);
}
}
return list;
}
搜索建议,类似于Baidu搜索时下拉提示框,Jquery UI模拟,下面是获取根据搜索数量最多的进行排序,得到IEnumerable<Model.SearchSum>集合
public IEnumerable<Model.SearchSum> GetSuggestion( string kw)
{
DataTable dt = SqlHelper.ExecuteDataTable( @" select top 5 Keyword,count(*) as searchcount from keywords
where datediff(day,searchdatetime,getdate())<7
and keyword like @keyword
group by Keyword
order by count(*) desc " , new SqlParameter( " @keyword " , " % " +kw+ " % " ));
List <Model.SearchSum> list = new List<Model.SearchSum> ();
if (dt != null && dt.Rows != null && dt.Rows.Count > 0 )
{
foreach (DataRow row in dt.Rows)
{
Model.SearchSum oneModel = new Model.SearchSum();
oneModel.Keyword = Convert.ToString(row[ " keyword " ]);
oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]);
list.Add(oneModel);
}
}
return list;
}
最关键的搜索代码,详见注释和上面Lucene.Net核心类二:
protected void Page_Load( object sender, EventArgs e)
{
// 加载热词
hotwordsRepeater.DataSource = new Dao.KeywordDao().GetHotWords();
hotwordsRepeater.DataBind();
kw = Request[ " kw " ];
if ( string .IsNullOrWhiteSpace(kw))
{
return ;
}
// 处理:将用户的搜索记录加入数据库,方便统计热词
Model.SerachKeyword model = new Model.SerachKeyword();
model.Keyword = kw;
model.SearchDateTime = DateTime.Now;
model.ClinetAddress = Request.UserHostAddress;
new Dao.KeywordDao().Add(model);
// 分页控件
MyPage pager = new MyPage();
pager.TryParseCurrentPageIndex(Request[ " pagenum " ]);
// 超链接href属性
pager.UrlFormat = " CreateIndex.aspx?pagenum={n}&kw= " + Server.UrlEncode(kw);
int startRowIndex = (pager.CurrentPageIndex - 1 ) * pager.PageSize;
int totalCount = - 1 ;
List <SearchResult> list = DoSearch(startRowIndex,pager.PageSize, out totalCount);
pager.TotalCount = totalCount;
RenderToHTML = pager.RenderToHTML();
dataRepeater.DataSource = list;
dataRepeater.DataBind();
}
private List<SearchResult> DoSearch( int startRowIndex, int pageSize, out int totalCount)
{
string indexPath = " C:/Index " ;
FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NoLockFactory());
IndexReader reader = IndexReader.Open(directory, true );
// IndexSearcher是进行搜索的类
IndexSearcher searcher = new IndexSearcher(reader);
PhraseQuery query = new PhraseQuery();
foreach ( string word in CommonHelper.SplitWord(kw))
{
query.Add( new Term( " body " , word));
}
query.SetSlop( 100 ); // 相聚100以内才算是查询到
TopScoreDocCollector collector = TopScoreDocCollector.create( 1024 , true ); // 最大1024条记录
searcher.Search(query, null , collector);
totalCount = collector.GetTotalHits(); // 返回总条数
ScoreDoc[] docs = collector.TopDocs(startRowIndex, pageSize).scoreDocs; // 分页,下标应该从0开始吧,0是第一条记录
List<SearchResult> list = new List<SearchResult> ();
for ( int i = 0 ; i < docs.Length; i++ )
{
int docID = docs[i].doc; // 取文档的编号,这个是主键,lucene.net分配
// 检索结果中只有文档的id,如果要取Document,则需要Doc再去取
// 降低内容占用
Document doc = searcher.Doc(docID);
string number = doc.Get( " number " );
string title = doc.Get( " title " );
string body = doc.Get( " body " );
SearchResult searchResult = new SearchResult() { Number = number, Title = title, BodyPreview = Preview(body, kw) };
list.Add(searchResult);
}
return list;
}
Jquery UI模拟Baidu下拉提示和数据的绑定
<script type= " text/javascript " >
$(function () {
$( " #txtKeyword " ).autocomplete(
{ source: " SearchSuggestion.ashx " ,
select : function ( event , ui) { $( " #txtKeyword " ).val(ui.item.value); $( " #form1 " ).submit(); }
});
});
</script>
<div align= " center " >
<input type= " text " id= " txtKeyword " name= " kw " value= ' <%=kw %> ' />
<%-- <asp:Button ID= " createIndexButton " runat= " server " onclick= " searchButton_Click "
Text = " 创建索引库 " />--%>
<input type= " submit " name= " searchButton " value= " 搜索 " style= " 91px " /><br />
</div>
<br />
<ul id= " hotwordsUL " >
<asp:Repeater ID= " hotwordsRepeater " runat= " server " >
<ItemTemplate>
<li><a href= ' CreateIndex.aspx?kw=<%#Eval("Keyword") %> ' ><%#Eval( " Keyword " ) %></a></li>
</ItemTemplate>
</asp:Repeater>
</ul>
<br />
<asp:Repeater ID= " dataRepeater " runat= " server " EnableViewState= " true " >
<HeaderTemplate>
<ul>
</HeaderTemplate>
<ItemTemplate>
<li>
<a href= ' http://localhost:8080/showtopic-<%#Eval("Number") %>.aspx ' ><%#Eval( " Title " ) %></a>
<br />
<%#Eval( " BodyPreview " ) %>
</li>
</ItemTemplate>
<FooterTemplate>
</ul>
</FooterTemplate>
</asp:Repeater>
<br />
<div class = " pager " ><%=RenderToHTML%></div>
小结
很巧,一年前我的微薄上的签名是七月能有31天,是给我的最大恩惠。现在,此刻,还是很一年前那样烦躁,不知所措,又是7月31日,那样的熟悉。
大三的这个夏天,和往常那样,静静的坐着,看到了凌晨的晨曦,那样安静,祥和。
再过20天,即将投出第一份简历,一切都来得那样快,让人不知所措。
或许,明年的7月31日,不再这么悲伤。
想起了,天下足球里对亨利的描述:
还是回到伦敦吧,通往海布里的列车一趟一趟运行着,
这里总会送走过去,迎来新生,
32岁的亨利就坐在那儿,深情的目光望过去,远远都是自己22岁的影子...
点击附件下载:
本博客为 木宛城主 原创,基于 Creative Commons Attribution 2.5 China Mainland License 发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名 木宛城主 (包含链接)。如您有任何疑问或者授权方面的协商,请给我留言。
分类: ASP.NET , Lucene.Net
标签: Lucene.Net
作者: Leo_wl
出处: http://www.cnblogs.com/Leo_wl/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
版权信息
查看更多关于仿造Baidu简单实现基于Lucene.net的全文检索的功能的详细内容...
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did48357
学习Lucune.Net,分词是核心。当然最理想状态下是能自己扩展分词,但这要很高的算法要求。Lucene.Net中不同的分词算法就是不同的类。所有分词算法类都从Analyzer类继承,不同的分词算法有不同的优缺点。
内置的StandardAnalyzer是将 英文按照空格、标点符号等进行分词,将中文按照单个字进行分词,一个汉字算一个词
Analyzer analyzer = new StandardAnalyzer(); TokenStream tokenStream = analyzer.TokenStream( "" , new StringReader( "Hello Lucene.Net,我1爱1你China " )); Lucene.Net.Analysis.Token token = null ; while ((token = tokenStream.Next()) != null ) { Console.WriteLine(token.TermText()); }
分词后结果:
二元分词算法, 每两个汉字算一个单词 ,“我爱你China”会分词为“我爱 爱你 china”, 点击 查看 二元分词算法CJKAnalyzer。
Analyzer analyzer = new CJKAnalyzer(); TokenStream tokenStream = analyzer.TokenStream( "" , new StringReader( " 我爱你中国China中华人名共和国 " )); Lucene.Net.Analysis.Token token = null ; while ((token = tokenStream.Next()) != null ) { Response.Write(token.TermText() + " <br/> " ); }
这时,你肯定在想,上面没有一个好用的,二元分词算法乱枪打鸟,很想自己扩展Analyzer,但并不是算法上的专业人士。怎么办?
天降圣器, 盘古分词 , 点击下载 。
Lucene.Net核心类简介(一)
Directory表示索引文件(Lucene.net用来保存用户扔过来的数据的地方)保存的地方,是 抽象类 ,两个子类FSDirectory(文件中)、RAMDirectory (内存中)。
IndexReader对索引进行读取的类,对IndexWriter进行写的类。
IndexReader的静态方法bool IndexExists(Directory directory)判断目录directory是否是一个索引目录。IndexWriter的bool IsLocked(Directory directory) 判断目录是否锁定,在对目录写之前会先把目录锁定。两个IndexWriter没法同时写一个索引文件。IndexWriter在进行写操作的时候会自动加锁,close的时候会自动解锁。IndexWriter.Unlock方法手动解锁(比如还没来得及close IndexWriter 程序就崩溃了,可能造成一直被锁定)。
创建索引库操作:
构造函数:IndexWriter(Directory dir, Analyzer a, bool create, MaxFieldLength mfl)因为IndexWriter把输入写入索引的时候,Lucene.net是把写入的文件用指定的分词器将文章分词(这样检索的时候才能查的快),然后将词放入索引文件。
void AddDocument(Document doc),向索引中添加文档(Insert)。Document类代表要索引的文档(文章),最重要的方法Add(Field field),向文档中添加字段。Document是一片文档,Field是字段(属性)。 Document相当于一条记录 , Field相当于字段 。
Field类的构造函数 Field(string name, string value, Field.Store store, Field.Index index, Field.TermVector termVector): name表示字段名; value表示字段值; store表示是否存储value值, 可选值 Field.Store.YES存储, Field.Store.NO不存储, Field.Store.COMPRESS压缩存储 ;默认只保存分词以后的一堆词,而不保存分词之前的内容,搜索的时候无法根据分词后的东西还原原文,因此如果要显示原文(比如文章正文)则需要设置存储。 index表示如何创建索引,可选值Field.Index. NOT_ANALYZED ,不创建索引,Field.Index. ANALYZED,创建索引 ;创建索引的字段才可以比较好的检索。是否碎尸万段!是否需要按照这个字段进行“全文检索”。 termVector表示如何保存索引词之间的距离。“北京欢迎你们大家”,索引中是如何保存“北京”和“大家”之间“隔多少单词”。方便只检索在一定距离之内的词。
private void CreateIndex()
{
// 索引库存放在这个文件夹里
string indexPath = ConfigurationManager.AppSettings[ " pathIndex " ];
// Directory表示索引文件保存的地方,是抽象类,两个子类FSDirectory表示文件中,RAMDirectory 表示存储在内存中
FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NativeFSLockFactory());
// 判断目录directory是否是一个索引目录。
bool isUpdate = IndexReader.IndexExists(directory);
logger.Debug( " 索引库存在状态: " + isUpdate);
if (isUpdate)
{
if (IndexWriter.IsLocked(directory))
{
IndexWriter.Unlock(directory);
}
}
// 第三个参数为是否创建索引文件夹,Bool Create,如果为True,则新创建的索引会覆盖掉原来的索引文件,反之,则不必创建,更新即可。
IndexWriter write = new IndexWriter(directory, new PanGuAnalyzer(), ! isUpdate, IndexWriter.MaxFieldLength.UNLIMITED);
WebClient wc = new WebClient();
// 编码,防止乱码
wc.Encoding = Encoding.UTF8;
int maxID;
try
{
// 读取rss,获得第一个item中的链接的编号部分就是最大的帖子编号
maxID = GetMaxID();
}
catch (WebException webEx)
{
logger.Error( " 获得最大帖子号出错 " ,webEx);
return ;
}
for ( int i = 1 ; i <= maxID; i++ )
{
try
{
string url = " http://localhost:8080/showtopic- " + i + " .aspx " ;
logger.Debug( " 开始下载: " + url);
string html = wc.DownloadString(url);
HTMLDocumentClass doc = new HTMLDocumentClass();
doc.designMode = " on " ; // 不让解析引擎尝试去执行
doc.IHTMLDocument2_write(html);
doc.close();
string title = doc.title;
string body = doc.body.innerText;
// 为避免重复索引,先输出number=i的记录,在重新添加
write.DeleteDocuments( new Term( " number " , i.ToString()));
Document document = new Document();
// Field为字段,只有对全文检索的字段才分词,Field.Store是否存储
document.Add( new Field( " number " , i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED));
document.Add( new Field( " title " , title, Field.Store.YES, Field.Index.NOT_ANALYZED));
document.Add( new Field( " body " , body, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS));
write.AddDocument(document);
logger.Debug( " 索引 " + i.ToString() + " 完毕 " );
}
catch (WebException webEx)
{
logger.Error( " 下载 " +i.ToString()+ " 失败 " ,webEx);
}
}
write.Close();
directory.Close();
logger.Debug( " 全部索引完毕 " );
}
// 取最大帖子号
private int GetMaxID()
{
XDocument xdoc = XDocument.Load( " Http://localhost:8080/tools/rss.aspx " );
XElement channel = xdoc.Root.Element( " channel " );
XElement fitstItem = channel.Elements( " item " ).First();
XElement link = fitstItem.Element( " link " );
Match match = Regex.Match(link.Value, @" http://localhost:8080/showtopic-(\d+)\.aspx " );
string id = match.Groups[ 1 ].Value;
return Convert.ToInt32(id);
}
这样就创建了索引库,利用WebClient爬去所有网页的内容,这儿需要你添加引用 Microsoft mshtml 组件, MSHTML是微软公司的一个COM组件,该组件封装了HTML语言中的所有元素及其属性,通过其提供的标准接口,可以访问指定网页的所有元素。
当然,创建索引库最好定时给我们自动创建,类似于Windows计划任务。
在 这儿 你可以了解 Quartz.Net
首先添加对其(我这个版本有两个,一个是Quartz.dll,还有一个是Common.Logging)的引用,貌似两个缺一不可,否则会报错,类似于文件路径错误。
在Global里配置如下:
public class Global : System.Web.HttpApplication
{
private static ILog logger = LogManager.GetLogger( typeof (Global));
private IScheduler sched;
protected void Application_Start( object sender, EventArgs e)
{
// 控制台就放在Main
logger.Debug( " Application_Start " );
log4net.Config.XmlConfigurator.Configure();
// 从配置中读取任务启动时间
int indexStartHour = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartHour " ]);
int indexStartMin = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartMin " ]);
ISchedulerFactory sf = new StdSchedulerFactory();
sched = sf.GetScheduler();
JobDetail job = new JobDetail( " job1 " , " group1 " , typeof (IndexJob)); // IndexJob为实现了IJob接口的类
Trigger trigger = TriggerUtils.MakeDailyTrigger( " tigger1 " , indexStartHour, indexStartMin); // 每天10点3分执行
trigger.JobName = " job1 " ;
trigger.JobGroup = " group1 " ;
trigger.Group = " group1 " ;
sched.AddJob(job, true );
sched.ScheduleJob(trigger);
// IIS启动了就不会来了
sched.Start();
}
protected void Session_Start( object sender, EventArgs e)
{
}
protected void Application_BeginRequest( object sender, EventArgs e)
{
}
protected void Application_AuthenticateRequest( object sender, EventArgs e)
{
}
protected void Application_Error( object sender, EventArgs e)
{
logger.Debug( " 网络出现未处理异常: " ,HttpContext.Current.Server.GetLastError());
}
protected void Session_End( object sender, EventArgs e)
{
}
protected void Application_End( object sender, EventArgs e)
{
logger.Debug( " Application_End " );
sched.Shutdown( true );
}
}
最后我们的Job去做任务,但需要实现IJob接口
public class IndexJob:IJob
{
private ILog logger = LogManager.GetLogger( typeof (IndexJob));
public void Execute(JobExecutionContext context)
{
try
{
logger.Debug( " 索引开始 " );
CreateIndex();
logger.Debug( " 索引结束 " );
}
catch (Exception ex)
{
logger.Debug( " 启动索引任务异常 " , ex);
}
}
}
Ok,我们的索引库建立完了,接下来就是搜索了。
Lucene.Net核心类简介(二)
IndexSearcher是进行搜索的类 ,构造函数传递一个IndexReader。IndexSearcher的void Search(Query query, Filter filter, Collector results)方法用来搜索,Query是查询条件, filter目前传递null, results是检索结果,TopScoreDocCollector.create(1000, true)方法创建一个Collector,1000表示最多结果条数,Collector就是一个结果收集器。
Query有很多子类,PhraseQuery是一个子类。 PhraseQuery用来进行多个关键词的检索,调用Add方法添加关键词,query.Add(new Term("字段名", 关键词)), PhraseQuery. SetSlop(int slop)用来设置关键词之间的最大距离,默认是0 ,设置了Slop以后哪怕文档中两个关键词之间没有紧挨着也能找到。 query.Add(new Term("字段名", 关键词)) query.Add(new Term("字段名", 关键词2)) 类似于:where 字段名 contains 关键词 and 字段名 contais 关键词2
调用TopScoreDocCollector的GetTotalHits()方法得到搜索结果条数,调用Hits的TopDocs TopDocs(int start, int howMany)得到一个范围内的结果(分页) ,TopDocs的scoreDocs字段是结果ScoreDoc数组, ScoreDoc 的doc字段为Lucene.Net为文档分配的id(为降低内存占用,只先返回文档id),根据这个id调用searcher的Doc方法就能拿到Document了(放进去的是Document,取出来的也是Document);调用doc.Get("字段名")可以得到文档指定字段的值, 注意只有Store.YES的字段才能得到,因为Store.NO的没有保存全部内容,只保存了分割后的词。
搜索的代码:
查看盘古分词文档找到高亮显示:
private string Preview( string body, string keyword)
{
PanGu.HighLight.SimpleHTMLFormatter simpleHTMLFormatter = new PanGu.HighLight.SimpleHTMLFormatter( " <font color=\"Red\"> " , " </font> " );
PanGu.HighLight.Highlighter highlighter = new PanGu.HighLight.Highlighter(simpleHTMLFormatter, new Segment());
highlighter.FragmentSize = 100 ;
string bodyPreview = highlighter.GetBestFragment(keyword, body);
return bodyPreview;
}
因为我们页面刚进入需要加载热词,为了减轻服务端压力,缓存的使用能使我们解决这一问题。
既然是热词,当然是最近几天搜索量最多的, 故Sql语句需要考虑指定的时间之内的搜索数量的排序。
public IEnumerable<Model.SearchSum> GetHotWords()
{
// 缓存
var data=HttpRuntime.Cache[ " hotwords " ];
if (data== null )
{
IEnumerable <Model.SearchSum> hotWords = DoSelect();
HttpRuntime.Cache.Insert( " hotwords " ,hotWords, null ,DateTime.Now.AddMilliseconds( 30 ),TimeSpan.Zero );
return hotWords;
}
return (IEnumerable<Model.SearchSum> )data;
}
private IEnumerable<Model.SearchSum> DoSelect()
{
DataTable dt = SqlHelper.ExecuteDataTable( @"
select top 5 Keyword,count(*) as searchcount from keywords
where datediff(day,searchdatetime,getdate())<7
group by Keyword
order by count(*) desc " );
List <Model.SearchSum> list = new List<Model.SearchSum> ();
if (dt!= null &&dt.Rows!= null &&dt.Rows.Count> 0 )
{
foreach (DataRow row in dt.Rows)
{
Model.SearchSum oneModel = new Model.SearchSum ();
oneModel.Keyword = Convert.ToString(row[ " keyword " ]);
oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]);
list.Add(oneModel);
}
}
return list;
}
搜索建议,类似于Baidu搜索时下拉提示框,Jquery UI模拟,下面是获取根据搜索数量最多的进行排序,得到IEnumerable<Model.SearchSum>集合
public IEnumerable<Model.SearchSum> GetSuggestion( string kw)
{
DataTable dt = SqlHelper.ExecuteDataTable( @" select top 5 Keyword,count(*) as searchcount from keywords
where datediff(day,searchdatetime,getdate())<7
and keyword like @keyword
group by Keyword
order by count(*) desc " , new SqlParameter( " @keyword " , " % " +kw+ " % " ));
List <Model.SearchSum> list = new List<Model.SearchSum> ();
if (dt != null && dt.Rows != null && dt.Rows.Count > 0 )
{
foreach (DataRow row in dt.Rows)
{
Model.SearchSum oneModel = new Model.SearchSum();
oneModel.Keyword = Convert.ToString(row[ " keyword " ]);
oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]);
list.Add(oneModel);
}
}
return list;
}
最关键的搜索代码,详见注释和上面Lucene.Net核心类二:
protected void Page_Load( object sender, EventArgs e)
{
// 加载热词
hotwordsRepeater.DataSource = new Dao.KeywordDao().GetHotWords();
hotwordsRepeater.DataBind();
kw = Request[ " kw " ];
if ( string .IsNullOrWhiteSpace(kw))
{
return ;
}
// 处理:将用户的搜索记录加入数据库,方便统计热词
Model.SerachKeyword model = new Model.SerachKeyword();
model.Keyword = kw;
model.SearchDateTime = DateTime.Now;
model.ClinetAddress = Request.UserHostAddress;
new Dao.KeywordDao().Add(model);
// 分页控件
MyPage pager = new MyPage();
pager.TryParseCurrentPageIndex(Request[ " pagenum " ]);
// 超链接href属性
pager.UrlFormat = " CreateIndex.aspx?pagenum={n}&kw= " + Server.UrlEncode(kw);
int startRowIndex = (pager.CurrentPageIndex - 1 ) * pager.PageSize;
int totalCount = - 1 ;
List <SearchResult> list = DoSearch(startRowIndex,pager.PageSize, out totalCount);
pager.TotalCount = totalCount;
RenderToHTML = pager.RenderToHTML();
dataRepeater.DataSource = list;
dataRepeater.DataBind();
}
private List<SearchResult> DoSearch( int startRowIndex, int pageSize, out int totalCount)
{
string indexPath = " C:/Index " ;
FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NoLockFactory());
IndexReader reader = IndexReader.Open(directory, true );
// IndexSearcher是进行搜索的类
IndexSearcher searcher = new IndexSearcher(reader);
PhraseQuery query = new PhraseQuery();
foreach ( string word in CommonHelper.SplitWord(kw))
{
query.Add( new Term( " body " , word));
}
query.SetSlop( 100 ); // 相聚100以内才算是查询到
TopScoreDocCollector collector = TopScoreDocCollector.create( 1024 , true ); // 最大1024条记录
searcher.Search(query, null , collector);
totalCount = collector.GetTotalHits(); // 返回总条数
ScoreDoc[] docs = collector.TopDocs(startRowIndex, pageSize).scoreDocs; // 分页,下标应该从0开始吧,0是第一条记录
List<SearchResult> list = new List<SearchResult> ();
for ( int i = 0 ; i < docs.Length; i++ )
{
int docID = docs[i].doc; // 取文档的编号,这个是主键,lucene.net分配
// 检索结果中只有文档的id,如果要取Document,则需要Doc再去取
// 降低内容占用
Document doc = searcher.Doc(docID);
string number = doc.Get( " number " );
string title = doc.Get( " title " );
string body = doc.Get( " body " );
SearchResult searchResult = new SearchResult() { Number = number, Title = title, BodyPreview = Preview(body, kw) };
list.Add(searchResult);
}
return list;
}
Jquery UI模拟Baidu下拉提示和数据的绑定
<script type= " text/javascript " >
$(function () {
$( " #txtKeyword " ).autocomplete(
{ source: " SearchSuggestion.ashx " ,
select : function ( event , ui) { $( " #txtKeyword " ).val(ui.item.value); $( " #form1 " ).submit(); }
});
});
</script>
<div align= " center " >
<input type= " text " id= " txtKeyword " name= " kw " value= ' <%=kw %> ' />
<%-- <asp:Button ID= " createIndexButton " runat= " server " onclick= " searchButton_Click "
Text = " 创建索引库 " />--%>
<input type= " submit " name= " searchButton " value= " 搜索 " style= " 91px " /><br />
</div>
<br />
<ul id= " hotwordsUL " >
<asp:Repeater ID= " hotwordsRepeater " runat= " server " >
<ItemTemplate>
<li><a href= ' CreateIndex.aspx?kw=<%#Eval("Keyword") %> ' ><%#Eval( " Keyword " ) %></a></li>
</ItemTemplate>
</asp:Repeater>
</ul>
<br />
<asp:Repeater ID= " dataRepeater " runat= " server " EnableViewState= " true " >
<HeaderTemplate>
<ul>
</HeaderTemplate>
<ItemTemplate>
<li>
<a href= ' http://localhost:8080/showtopic-<%#Eval("Number") %>.aspx ' ><%#Eval( " Title " ) %></a>
<br />
<%#Eval( " BodyPreview " ) %>
</li>
</ItemTemplate>
<FooterTemplate>
</ul>
</FooterTemplate>
</asp:Repeater>
<br />
<div class = " pager " ><%=RenderToHTML%></div>
小结
很巧,一年前我的微薄上的签名是七月能有31天,是给我的最大恩惠。现在,此刻,还是很一年前那样烦躁,不知所措,又是7月31日,那样的熟悉。
大三的这个夏天,和往常那样,静静的坐着,看到了凌晨的晨曦,那样安静,祥和。
再过20天,即将投出第一份简历,一切都来得那样快,让人不知所措。
或许,明年的7月31日,不再这么悲伤。
想起了,天下足球里对亨利的描述:
还是回到伦敦吧,通往海布里的列车一趟一趟运行着,
这里总会送走过去,迎来新生,
32岁的亨利就坐在那儿,深情的目光望过去,远远都是自己22岁的影子...
点击附件下载:
本博客为 木宛城主 原创,基于 Creative Commons Attribution 2.5 China Mainland License 发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名 木宛城主 (包含链接)。如您有任何疑问或者授权方面的协商,请给我留言。
分类: ASP.NET , Lucene.Net
标签: Lucene.Net
作者: Leo_wl
出处: http://www.cnblogs.com/Leo_wl/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
版权信息
查看更多关于仿造Baidu简单实现基于Lucene.net的全文检索的功能的详细内容...
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did48357
创建索引库操作:
构造函数:IndexWriter(Directory dir, Analyzer a, bool create, MaxFieldLength mfl)因为IndexWriter把输入写入索引的时候,Lucene.net是把写入的文件用指定的分词器将文章分词(这样检索的时候才能查的快),然后将词放入索引文件。 void AddDocument(Document doc),向索引中添加文档(Insert)。Document类代表要索引的文档(文章),最重要的方法Add(Field field),向文档中添加字段。Document是一片文档,Field是字段(属性)。 Document相当于一条记录 , Field相当于字段 。Field类的构造函数 Field(string name, string value, Field.Store store, Field.Index index, Field.TermVector termVector): name表示字段名; value表示字段值; store表示是否存储value值, 可选值 Field.Store.YES存储, Field.Store.NO不存储, Field.Store.COMPRESS压缩存储 ;默认只保存分词以后的一堆词,而不保存分词之前的内容,搜索的时候无法根据分词后的东西还原原文,因此如果要显示原文(比如文章正文)则需要设置存储。 index表示如何创建索引,可选值Field.Index. NOT_ANALYZED ,不创建索引,Field.Index. ANALYZED,创建索引 ;创建索引的字段才可以比较好的检索。是否碎尸万段!是否需要按照这个字段进行“全文检索”。 termVector表示如何保存索引词之间的距离。“北京欢迎你们大家”,索引中是如何保存“北京”和“大家”之间“隔多少单词”。方便只检索在一定距离之内的词。
private void CreateIndex() { // 索引库存放在这个文件夹里 string indexPath = ConfigurationManager.AppSettings[ " pathIndex " ]; // Directory表示索引文件保存的地方,是抽象类,两个子类FSDirectory表示文件中,RAMDirectory 表示存储在内存中 FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NativeFSLockFactory()); // 判断目录directory是否是一个索引目录。 bool isUpdate = IndexReader.IndexExists(directory); logger.Debug( " 索引库存在状态: " + isUpdate); if (isUpdate) { if (IndexWriter.IsLocked(directory)) { IndexWriter.Unlock(directory); } } // 第三个参数为是否创建索引文件夹,Bool Create,如果为True,则新创建的索引会覆盖掉原来的索引文件,反之,则不必创建,更新即可。 IndexWriter write = new IndexWriter(directory, new PanGuAnalyzer(), ! isUpdate, IndexWriter.MaxFieldLength.UNLIMITED); WebClient wc = new WebClient(); // 编码,防止乱码 wc.Encoding = Encoding.UTF8; int maxID; try { // 读取rss,获得第一个item中的链接的编号部分就是最大的帖子编号 maxID = GetMaxID(); } catch (WebException webEx) { logger.Error( " 获得最大帖子号出错 " ,webEx); return ; } for ( int i = 1 ; i <= maxID; i++ ) { try { string url = " http://localhost:8080/showtopic- " + i + " .aspx " ; logger.Debug( " 开始下载: " + url); string html = wc.DownloadString(url); HTMLDocumentClass doc = new HTMLDocumentClass(); doc.designMode = " on " ; // 不让解析引擎尝试去执行 doc.IHTMLDocument2_write(html); doc.close(); string title = doc.title; string body = doc.body.innerText; // 为避免重复索引,先输出number=i的记录,在重新添加 write.DeleteDocuments( new Term( " number " , i.ToString())); Document document = new Document(); // Field为字段,只有对全文检索的字段才分词,Field.Store是否存储 document.Add( new Field( " number " , i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED)); document.Add( new Field( " title " , title, Field.Store.YES, Field.Index.NOT_ANALYZED)); document.Add( new Field( " body " , body, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS)); write.AddDocument(document); logger.Debug( " 索引 " + i.ToString() + " 完毕 " ); } catch (WebException webEx) { logger.Error( " 下载 " +i.ToString()+ " 失败 " ,webEx); } } write.Close(); directory.Close(); logger.Debug( " 全部索引完毕 " ); } // 取最大帖子号 private int GetMaxID() { XDocument xdoc = XDocument.Load( " Http://localhost:8080/tools/rss.aspx " ); XElement channel = xdoc.Root.Element( " channel " ); XElement fitstItem = channel.Elements( " item " ).First(); XElement link = fitstItem.Element( " link " ); Match match = Regex.Match(link.Value, @" http://localhost:8080/showtopic-(\d+)\.aspx " ); string id = match.Groups[ 1 ].Value; return Convert.ToInt32(id); }这样就创建了索引库,利用WebClient爬去所有网页的内容,这儿需要你添加引用 Microsoft mshtml 组件, MSHTML是微软公司的一个COM组件,该组件封装了HTML语言中的所有元素及其属性,通过其提供的标准接口,可以访问指定网页的所有元素。
当然,创建索引库最好定时给我们自动创建,类似于Windows计划任务。
在 这儿 你可以了解 Quartz.Net
首先添加对其(我这个版本有两个,一个是Quartz.dll,还有一个是Common.Logging)的引用,貌似两个缺一不可,否则会报错,类似于文件路径错误。 在Global里配置如下:
public class Global : System.Web.HttpApplication { private static ILog logger = LogManager.GetLogger( typeof (Global)); private IScheduler sched; protected void Application_Start( object sender, EventArgs e) { // 控制台就放在Main logger.Debug( " Application_Start " ); log4net.Config.XmlConfigurator.Configure(); // 从配置中读取任务启动时间 int indexStartHour = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartHour " ]); int indexStartMin = Convert.ToInt32(ConfigurationManager.AppSettings[ " IndexStartMin " ]); ISchedulerFactory sf = new StdSchedulerFactory(); sched = sf.GetScheduler(); JobDetail job = new JobDetail( " job1 " , " group1 " , typeof (IndexJob)); // IndexJob为实现了IJob接口的类 Trigger trigger = TriggerUtils.MakeDailyTrigger( " tigger1 " , indexStartHour, indexStartMin); // 每天10点3分执行 trigger.JobName = " job1 " ; trigger.JobGroup = " group1 " ; trigger.Group = " group1 " ; sched.AddJob(job, true ); sched.ScheduleJob(trigger); // IIS启动了就不会来了 sched.Start(); } protected void Session_Start( object sender, EventArgs e) { } protected void Application_BeginRequest( object sender, EventArgs e) { } protected void Application_AuthenticateRequest( object sender, EventArgs e) { } protected void Application_Error( object sender, EventArgs e) { logger.Debug( " 网络出现未处理异常: " ,HttpContext.Current.Server.GetLastError()); } protected void Session_End( object sender, EventArgs e) { } protected void Application_End( object sender, EventArgs e) { logger.Debug( " Application_End " ); sched.Shutdown( true ); } }最后我们的Job去做任务,但需要实现IJob接口
public class IndexJob:IJob { private ILog logger = LogManager.GetLogger( typeof (IndexJob)); public void Execute(JobExecutionContext context) { try { logger.Debug( " 索引开始 " ); CreateIndex(); logger.Debug( " 索引结束 " ); } catch (Exception ex) { logger.Debug( " 启动索引任务异常 " , ex); } } }
Ok,我们的索引库建立完了,接下来就是搜索了。
Lucene.Net核心类简介(二)
IndexSearcher是进行搜索的类 ,构造函数传递一个IndexReader。IndexSearcher的void Search(Query query, Filter filter, Collector results)方法用来搜索,Query是查询条件, filter目前传递null, results是检索结果,TopScoreDocCollector.create(1000, true)方法创建一个Collector,1000表示最多结果条数,Collector就是一个结果收集器。 Query有很多子类,PhraseQuery是一个子类。 PhraseQuery用来进行多个关键词的检索,调用Add方法添加关键词,query.Add(new Term("字段名", 关键词)), PhraseQuery. SetSlop(int slop)用来设置关键词之间的最大距离,默认是0 ,设置了Slop以后哪怕文档中两个关键词之间没有紧挨着也能找到。 query.Add(new Term("字段名", 关键词)) query.Add(new Term("字段名", 关键词2)) 类似于:where 字段名 contains 关键词 and 字段名 contais 关键词2调用TopScoreDocCollector的GetTotalHits()方法得到搜索结果条数,调用Hits的TopDocs TopDocs(int start, int howMany)得到一个范围内的结果(分页) ,TopDocs的scoreDocs字段是结果ScoreDoc数组, ScoreDoc 的doc字段为Lucene.Net为文档分配的id(为降低内存占用,只先返回文档id),根据这个id调用searcher的Doc方法就能拿到Document了(放进去的是Document,取出来的也是Document);调用doc.Get("字段名")可以得到文档指定字段的值, 注意只有Store.YES的字段才能得到,因为Store.NO的没有保存全部内容,只保存了分割后的词。
搜索的代码:
查看盘古分词文档找到高亮显示:
private string Preview( string body, string keyword) { PanGu.HighLight.SimpleHTMLFormatter simpleHTMLFormatter = new PanGu.HighLight.SimpleHTMLFormatter( " <font color=\"Red\"> " , " </font> " ); PanGu.HighLight.Highlighter highlighter = new PanGu.HighLight.Highlighter(simpleHTMLFormatter, new Segment()); highlighter.FragmentSize = 100 ; string bodyPreview = highlighter.GetBestFragment(keyword, body); return bodyPreview; }因为我们页面刚进入需要加载热词,为了减轻服务端压力,缓存的使用能使我们解决这一问题。 既然是热词,当然是最近几天搜索量最多的, 故Sql语句需要考虑指定的时间之内的搜索数量的排序。
public IEnumerable<Model.SearchSum> GetHotWords() { // 缓存 var data=HttpRuntime.Cache[ " hotwords " ]; if (data== null ) { IEnumerable <Model.SearchSum> hotWords = DoSelect(); HttpRuntime.Cache.Insert( " hotwords " ,hotWords, null ,DateTime.Now.AddMilliseconds( 30 ),TimeSpan.Zero ); return hotWords; } return (IEnumerable<Model.SearchSum> )data; } private IEnumerable<Model.SearchSum> DoSelect() { DataTable dt = SqlHelper.ExecuteDataTable( @" select top 5 Keyword,count(*) as searchcount from keywords where datediff(day,searchdatetime,getdate())<7 group by Keyword order by count(*) desc " ); List <Model.SearchSum> list = new List<Model.SearchSum> (); if (dt!= null &&dt.Rows!= null &&dt.Rows.Count> 0 ) { foreach (DataRow row in dt.Rows) { Model.SearchSum oneModel = new Model.SearchSum (); oneModel.Keyword = Convert.ToString(row[ " keyword " ]); oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]); list.Add(oneModel); } } return list; }搜索建议,类似于Baidu搜索时下拉提示框,Jquery UI模拟,下面是获取根据搜索数量最多的进行排序,得到IEnumerable<Model.SearchSum>集合
public IEnumerable<Model.SearchSum> GetSuggestion( string kw) { DataTable dt = SqlHelper.ExecuteDataTable( @" select top 5 Keyword,count(*) as searchcount from keywords where datediff(day,searchdatetime,getdate())<7 and keyword like @keyword group by Keyword order by count(*) desc " , new SqlParameter( " @keyword " , " % " +kw+ " % " )); List <Model.SearchSum> list = new List<Model.SearchSum> (); if (dt != null && dt.Rows != null && dt.Rows.Count > 0 ) { foreach (DataRow row in dt.Rows) { Model.SearchSum oneModel = new Model.SearchSum(); oneModel.Keyword = Convert.ToString(row[ " keyword " ]); oneModel.SearchCount = Convert.ToInt32(row[ " SearchCount " ]); list.Add(oneModel); } } return list; }最关键的搜索代码,详见注释和上面Lucene.Net核心类二:
protected void Page_Load( object sender, EventArgs e) { // 加载热词 hotwordsRepeater.DataSource = new Dao.KeywordDao().GetHotWords(); hotwordsRepeater.DataBind(); kw = Request[ " kw " ]; if ( string .IsNullOrWhiteSpace(kw)) { return ; } // 处理:将用户的搜索记录加入数据库,方便统计热词 Model.SerachKeyword model = new Model.SerachKeyword(); model.Keyword = kw; model.SearchDateTime = DateTime.Now; model.ClinetAddress = Request.UserHostAddress; new Dao.KeywordDao().Add(model); // 分页控件 MyPage pager = new MyPage(); pager.TryParseCurrentPageIndex(Request[ " pagenum " ]); // 超链接href属性 pager.UrlFormat = " CreateIndex.aspx?pagenum={n}&kw= " + Server.UrlEncode(kw); int startRowIndex = (pager.CurrentPageIndex - 1 ) * pager.PageSize; int totalCount = - 1 ; List <SearchResult> list = DoSearch(startRowIndex,pager.PageSize, out totalCount); pager.TotalCount = totalCount; RenderToHTML = pager.RenderToHTML(); dataRepeater.DataSource = list; dataRepeater.DataBind(); } private List<SearchResult> DoSearch( int startRowIndex, int pageSize, out int totalCount) { string indexPath = " C:/Index " ; FSDirectory directory = FSDirectory.Open( new DirectoryInfo(indexPath), new NoLockFactory()); IndexReader reader = IndexReader.Open(directory, true ); // IndexSearcher是进行搜索的类 IndexSearcher searcher = new IndexSearcher(reader); PhraseQuery query = new PhraseQuery(); foreach ( string word in CommonHelper.SplitWord(kw)) { query.Add( new Term( " body " , word)); } query.SetSlop( 100 ); // 相聚100以内才算是查询到 TopScoreDocCollector collector = TopScoreDocCollector.create( 1024 , true ); // 最大1024条记录 searcher.Search(query, null , collector); totalCount = collector.GetTotalHits(); // 返回总条数 ScoreDoc[] docs = collector.TopDocs(startRowIndex, pageSize).scoreDocs; // 分页,下标应该从0开始吧,0是第一条记录 List<SearchResult> list = new List<SearchResult> (); for ( int i = 0 ; i < docs.Length; i++ ) { int docID = docs[i].doc; // 取文档的编号,这个是主键,lucene.net分配 // 检索结果中只有文档的id,如果要取Document,则需要Doc再去取 // 降低内容占用 Document doc = searcher.Doc(docID); string number = doc.Get( " number " ); string title = doc.Get( " title " ); string body = doc.Get( " body " ); SearchResult searchResult = new SearchResult() { Number = number, Title = title, BodyPreview = Preview(body, kw) }; list.Add(searchResult); } return list; }Jquery UI模拟Baidu下拉提示和数据的绑定
<script type= " text/javascript " > $(function () { $( " #txtKeyword " ).autocomplete( { source: " SearchSuggestion.ashx " , select : function ( event , ui) { $( " #txtKeyword " ).val(ui.item.value); $( " #form1 " ).submit(); } }); }); </script>
<div align= " center " > <input type= " text " id= " txtKeyword " name= " kw " value= ' <%=kw %> ' /> <%-- <asp:Button ID= " createIndexButton " runat= " server " onclick= " searchButton_Click " Text = " 创建索引库 " />--%> <input type= " submit " name= " searchButton " value= " 搜索 " style= " 91px " /><br /> </div> <br /> <ul id= " hotwordsUL " > <asp:Repeater ID= " hotwordsRepeater " runat= " server " > <ItemTemplate> <li><a href= ' CreateIndex.aspx?kw=<%#Eval("Keyword") %> ' ><%#Eval( " Keyword " ) %></a></li> </ItemTemplate> </asp:Repeater> </ul> <br /> <asp:Repeater ID= " dataRepeater " runat= " server " EnableViewState= " true " > <HeaderTemplate> <ul> </HeaderTemplate> <ItemTemplate> <li> <a href= ' http://localhost:8080/showtopic-<%#Eval("Number") %>.aspx ' ><%#Eval( " Title " ) %></a> <br /> <%#Eval( " BodyPreview " ) %> </li> </ItemTemplate> <FooterTemplate> </ul> </FooterTemplate> </asp:Repeater> <br /> <div class = " pager " ><%=RenderToHTML%></div>小结
很巧,一年前我的微薄上的签名是七月能有31天,是给我的最大恩惠。现在,此刻,还是很一年前那样烦躁,不知所措,又是7月31日,那样的熟悉。
大三的这个夏天,和往常那样,静静的坐着,看到了凌晨的晨曦,那样安静,祥和。
再过20天,即将投出第一份简历,一切都来得那样快,让人不知所措。
或许,明年的7月31日,不再这么悲伤。
想起了,天下足球里对亨利的描述:
还是回到伦敦吧,通往海布里的列车一趟一趟运行着,
这里总会送走过去,迎来新生,
32岁的亨利就坐在那儿,深情的目光望过去,远远都是自己22岁的影子...
点击附件下载:
本博客为 木宛城主 原创,基于 Creative Commons Attribution 2.5 China Mainland License 发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名 木宛城主 (包含链接)。如您有任何疑问或者授权方面的协商,请给我留言。
分类: ASP.NET , Lucene.Net
标签: Lucene.Net
作者: Leo_wl
出处: http://www.cnblogs.com/Leo_wl/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
版权信息查看更多关于仿造Baidu简单实现基于Lucene.net的全文检索的功能的详细内容...
声明:本文来自网络,不代表【好得很程序员自学网】立场,转载请注明出处:http://haodehen.cn/did48357