这么说吧,你这样问的基本没戏,差太远。如果你真有心实现点啥,多看看书吧,不是啥都能问出来的。
额。。。。
@指尖上的星空:
不是我打击你啊,中文分词这个事情你搞定的话,可以直接去找李彦宏。
博士论文可以写十几篇了。
全文索引同理。
你搞定这两个就是双料博士了。
你找一找盘古分词, 可以解决的, 不困难.
1.你可以建一个词库,建立词的优先级。只有中文的话,这个库也很庞大了,如果是中英文都有的话就更庞大了。百度的词库拼音首字母,这些都有考虑进去。做简单的,处理中文就好了。
2.来了一段字符串之后,你通过优先级来抓取优先级高到底的词,形成一个字符串组。
3.字符串组出来了之后,你就可以通过这个组去一个个查了。
4.这是一种思路,我也没试过,估计查询会很慢。
5.如果很慢要优化得建立一套检索目录,优化查询。
6.个人思考的,之前也有想过这个问题,希望对你有帮助。不懂的可以问我,我们相互探讨。