首先系统装的是 CentOS 5 64bit
# lsb_release -a
<!----->
使用的分词是包 Linux-64bit-JNI
将原分词程序weiboDustAPI.jar包后 放入web工程, Linux-64bit-JNI的源包全部放到tomcat /bin目录下
运行发现java.lang.UnsatisfiedLinkError: no XXX in java.library.path错误
执行操作
Step1:设置libICTCLAS2011.so所在的路径(本例子中的路径为/root/ICTCLAS2011/LinuxJNI)
[root@localhost linux_c_sample]#export LD_LIBRARY_PATH=/root/ICTCLAS2011/LinuxJNI
修改Linux-64bit-JNI/Configure.xml中的内容与SRC平级的data包
部署成功
注意重点:libICTCLAS2011.so文件所在的路径文件夹加载到环境变量中 export LD_LIBRARY_PATH=/root/ICTCLAS2011/LinuxJNI(例如) 非常重要
第二个问题 :Init Fail!”,
这个问题的解决方案是将 jar工程房子在libICTCLAS2011.so同一层次目录
分享到:
相关推荐
在张华平博士的空间上直接下载的,用VS2010打开发现有几处BUG,主要是VC6.0转VC10.0的兼容问题,我上传的源码中,BUG已经恢复,代码现在能完美运行(包括分词词库)。
中科院分词系统中科院分词系统中科院分词系统中科院分词系统中科院分词系统中科院分词系统
运用python进行调用中科院分词系统已达到分词的目的 里面包含各个接口调用函数的详细介绍,极大程度的方便了开发者研究分词。可以直接运行。
很好的分词软件…… 支持各种分词,对于中文分词效果更佳……
中科院分词工具web版,在原来工具基础上改成网页版本的,可以直接使用
ICTCLAS 中科院分词 在java上的实现demo 包含了ICTCLAS接口开发文档
这是一个中科院中文词法分析器,能对输入的文本进行分词,词性标注,2013基础版的
中科院 分词 java 调用接口,里面有可以直接用的例子
主要用于中文 分词 , 由中科院开发的分词系统,已经运行成功
中科院的分词软件以及代码,代码使用c++写的。写搜做引擎的朋友们可以下来参考参考
中科院 分词算法 (包括演示程序)
中科院最新分词程序,hmm模型,支持多线程,大家有兴趣的可以研究一下
中科院汉语分词工具ICTCLAS,中文分词,文本分词,基于C++开发
中科院分词系统+ICTCLAS2011+JNI版(Java语言)源代码学习
分词的算法分词算法采用的是最大匹配算法,按从左至右正向最大匹配和从右到左反向最大匹配,当两种分词结果不一致时,按最少切分原则
中科院分词系统,Java版本的,自己加了一些测试函数。
中科院的中文分词系统ICTCLAS是从事文本挖掘研究工作的学者们所广泛使用的软件,在此就不多作介绍了。这是该软件的2015版本,欢迎各位学者下载使用。
很不错的中科院分词系统c++源码---linux下的C++ 张华平