有谁在正式项目中用过下面这个lucene.net高级中文分词 http://www.cnblogs.com/herobeast/archive/2010/06/06/1752684.html 我现在用它经常报下面的错误,请用过的哥们指教一下。而且搜索还有时候挂掉. 用过lucene.net的朋友能给推荐个除了盘古之外的使用lucene.net中文分词器吗??? hSystem.OutOfMemoryException: 引发类型为“System.OutOfMemoryException”的异常。 在 System.Text.RegularExpressions.MatchCollection..ctor(Regex regex, String input, Int32 beginning, Int32 length, Int32 startat) 在 System.Text.RegularExpressions.Regex.Matches(String input) 在 System.Text.RegularExpressions.Regex.Matches(String input, String pattern, RegexOptions options) 在 Lucene.Net.Analysis.China.x3394e3a3a4d1b56e.x526432cc790483da(xbe3359edea77d2e1 x8bab43510084bb0f) 在 Lucene.Net.Analysis.China.x3394e3a3a4d1b56e.xd5657831b545a1aa(xbe3359edea77d2e1 x8bab43510084bb0f) 在 Lucene.Net.Analysis.China.x93a9632f89e5228b.xa19ed99e4a8e3c37(xbe3359edea77d2e1 x8bab43510084bb0f) 在 Lucene.Net.Analysis.China.ChineseTokenizer.xd32c157ba2a173fa() 在 Lucene.Net.Analysis.China.ChineseTokenizer.Next() 在 Lucene.Net.Analysis.China.ChineseFilter.Next()
为什么不考虑用盘古分词器呢?
http://www.shootsoft.net/2010/08/shootsearch-0-2/,这个分词也不错,很稳定,效率也不错。