Skip to content

Latest commit

 

History

History
249 lines (160 loc) · 10 KB

ChangeLog.md

File metadata and controls

249 lines (160 loc) · 10 KB

CppJieba ChangeLog

v5.0.3

v5.0.2

v5.0.1

  • Make Compiler Happier.
  • Add PHP, DLang Links.

v5.0.0

  • Notice(api changed) : Jieba class 3 arguments -> 5 arguments, and use KeywordExtractor in Jieba

v4.8.1

v4.8.0

  • rewrite QuerySegment, make Jieba::CutForSearch behaves the same as jieba cut_for_search api
  • remove Jieba::SetQuerySegmentThreshold

v4.7.0

api changes:

  • override Cut functions, add location information into Word results;
  • remove LevelSegment;
  • remove Jieba::Locate;

upgrade:

  • limonp -> v0.6.1

v4.6.0

  • Change Jieba::Locate(deprecated) to be static function.
  • Change the return value of KeywordExtractor::Extract from bool to void.
  • Add KeywordExtractor::Word and add more overrided KeywordExtractor::Extract

v4.5.3

  • Upgrade limonp to v0.6.0

v4.5.2

  • Upgrade limonp to v0.5.6 to fix hidden trouble.

v4.5.1

  • Upgrade limonp to v0.5.5 to solve macro name conficts in some special case.

v4.5.0

  • 在 Trie 中去除之前糟糕的针对 uint16 优化的用数组代替 map 的设计, 该设计的主要问题是前提 unicode 每个字符必须是 uint16 ,则无法更全面得支持 unicode 多国字符。
  • Rune 类型从 16bit 更改为 32bit ,支持更多 Unicode 字符,包括一些罕见汉字。

v4.4.1

  • 使用 valgrind 检查内存泄露的问题,定位出一个HMM模型初始化的问题导致内存泄露的bug,不过此内存泄露不是致命问题, 因为只会在词典载入的时候发生,而词典载入通常情况下只会被运行一次,故不会导致严重问题。
  • 感谢 qinwf 帮我发现这个bug,非常感谢。

v4.4.0

  • 加代码容易删代码难,思索良久,还是决定把 Server 功能的源码剥离出这个项目。
  • 让 [cppjieba] 回到当年情窦未开时清纯的感觉,删除那些无关紧要的server代码,让整个项目轻装上阵,专注分词的核心代码。
  • By the way, 之前的 server 相关的代码,如果你真的需要它,就去新的项目仓库 cppjieba-server 找它们。

v4.3.3

  • Yet Another Incompatibility Problem Repair: Upgrade limonp to version v0.5.3, fix incompatibility problem in Windows

v4.3.2

  • Upgrade limonp to version v0.5.2, fix incompatibility problem in Windows

v4.3.1

  • 重载 KeywordExtractor 的构造函数,可以传入 Jieba 进行字典和模型的构造。

v4.3.0

源码目录布局调整:

  1. src/ -> include/cppjieba/
  2. src/limonp/ -> deps/limonp/
  3. server/husky -> deps/husky/
  4. test/unittest/gtest -> deps/gtest

依赖库升级:

  1. limonp to version v0.5.1
  2. husky to version v0.2.0

v4.2.1

  1. Upgrade limonp to version v0.4.1, husky to version v0.2.0

v4.2.0

  1. 修复issue50提到的多词典分隔符在Windows环境下存在的问题,从':'修改成'|'或';'。

v4.1.2

  1. 新增 Jieba::Locate 函数接口,作为计算分词结果的词语位置信息,在某些场景下有用,比如搜索结果高亮之类的。

v4.1.1

  1. 在 class Jieba 中新增词性标注的接口函数 Jieba::Tag

v4.1.0

  1. QuerySegment切词时加一层判断,当长词满足IsAllAscii(比如英文单词)时,不进行细粒度分词。
  2. QuerySegment新增SetMaxWordLen和GetMaxWordLen接口,用来设置二次分词条件被触发的词长阈值。
  3. Jieba新增SetQuerySegmentThreshold设置CutForSearch函数的词长阈值。

v4.0.0

  1. 支持多个userdict载入,多词典路径用英文冒号(:)作为分隔符,就当是向环境变量PATH致敬,哈哈。
  2. userdict是不带权重的,之前对于新的userword默认设置词频权重为最大值,现已支持可配置,默认使用中位值。
  3. 【兼容性预警】修改一些代码风格,比如命名空间小写化,从CppJieba变成cppjieba。
  4. 【兼容性预警】弃用Application.hpp, 取而代之使用Jieba.hpp ,接口也进行了大幅修改,函数风格更统一,和python版本的Jieba分词更一致。

v3.2.1

  1. 修复 Jieba.hpp 头文件保护写错导致的 bug。

v3.2.0

  1. 使用工程上比较 tricky 的 Trie树优化办法。废弃了之前的 Aho-Corasick-Automation 实现,可读性更好,性能更高。
  2. 新增层次分词器: LevelSegment 。
  3. 增加MPSegment的细粒度分词功能。
  4. 增加 class Jieba ,提供可读性更好的接口。
  5. 放弃了统一接口ISegment,因为统一的接口限制了分词方式的灵活性,限制了一些功能的增加。
  6. 增加默认开启新词发现功能的可选参数hmm,让MixSegment和QuerySegment都支持开关新词发现功能。

v3.1.0

  1. 新增可动态增加词典的API: insertUserWord
  2. cut函数增加默认参数,默认使用Mix切词算法。关于切词算法详见README.md

v3.0.1

  1. 提升兼容性,修复在某些特定环境下的编译错误问题。

v3.0.0

  1. 使得 QuerySegment 支持自定义词典(可选参数)。
  2. 使得 KeywordExtractor 支持自定义词典(可选参数)。
  3. 修改 Code Style ,参照 google code style 。
  4. 增加更详细的错误日志,在初始化过程中合理使用LogFatal。
  5. 增加 Application 这个类,整合了所有CppJieba的功能进去,以后用户只需要使用这个类即可。
  6. 修改 cjserver 服务,可以通过http参数使用不同切词算法进行切词。
  7. 修改 make install 的安装目录,统一安装到同一个目录 /usr/local/cppjieba 。

v2.4.4

  1. 修改两条更细粒度的特殊过滤规则,将连续的数字(包括浮点数)和连续的字母单独切分出来(而不会混在一起)。
  2. 修改最大概率法时动态规划过程需要使用的 DAG 数据结构(同时也修改 Trie 的 DAG 查询函数),提高分词速度 8% 。
  3. 使用了 Aho-Corasick-Automation 算法提速 Trie 查找的过程等优化,提升性能。
  4. 增加词性标注的两条特殊规则。

v2.4.3

  1. 更新 husky 服务代码,新 husky 为基于线程池的服务器简易框架。并且修复当 HTTP POST 请求时 body 过长数据可能丢失的问题。
  2. 修改 PosTagger 的参数结构,删除暂时无用的参数。并添加使用自定义字典的参数,也就是支持 自定义词性
  3. 更好的支持 mac osx (原谅作者如此屌丝,这么晚才买 mac )。
  4. 支持 Docker ,具体请见 Dockerfile

v2.4.2

  1. 适当使用 vector, 的基础上,使用limonp/LocalVector.hpp作为Unicode的类型等优化,约提高性能 30%
  2. 使 cjserver 支持用户自定义词典,通过在 conf/server.conf 里面配置 user_dict_path 来实现。
  3. 修复 MPSegment 切词时,当句子中含有特殊字符时,切词结果不完整的问题。
  4. 修改 FullSegment 减少内存使用。
  5. 修改 -std=c++0x 或者 -std=c++11 时编译失败的问题。

v2.4.1

  1. 完善一些特殊字符和字母串的切词效果。
  2. 提高关键词抽取的速度。
  3. 提供用户自定义词典的接口。
  4. 将server相关的代码独立出来,单独放在server/目录下。
  5. 修复用户自定义词典中单字会被MixSegment的新词发现功能给忽略的问题。也就是说,现在的词典是用户词典优先级最高,其次是自带的词典,再其次是新词发现出来的词。

v2.4.0

  1. 适配更低级版本的g++cmake,已在g++ 4.1.2cmake 2.6上测试通过。
  2. 修改一些测试用例的文件,减少测试时编译的时间。
  3. 修复make install相关的问题。
  4. 增加HTTP服务的POST请求接口。
  5. 拆分Trie.hppDictTrie.hppTrie.hpp,将trie树这个数据结构抽象出来,并且修复Trie这个类潜在的bug并完善单元测试。
  6. 重写cjserver的启动和停止,新启动和停止方法详见README.md。

v2.3.4

  1. 修改了设计上的问题,删除了TrieManager这个类,以避免造成一些可能的隐患。
  2. 增加stop_words.utf8词典,并修改KeywordExtractor的初始化函数用以使用此词典。
  3. 优化了Trie树相关部分代码结构。

v2.3.3

  1. 修复因为使用unordered_map导致的在不同机器上结果不一致的问题。
  2. 将部分数据结果从unordered_map改为map,提升了差不多1/6的切词速度。(因为unordered_map虽然查找速度快,但是在范围迭代的效率较低。)

v2.3.2

  1. 修复单元测试的问题,有些case在x84和x64中结果不一致。
  2. merge进词性标注的简单版本。

v2.3.1

  1. 修复安装时的服务启动问题(不过安装切词服务只是linux下的一个附加功能,不影响核心代码。)

v2.3.0

  1. 增加KeywordExtractor.hpp来进行关键词抽取。
  2. 使用gtest来做单元测试。

v2.2.0

  1. 性能优化,提升切词速度约6倍。
  2. 其他暂时也想不起来了。

v2.1.1 (v2.1.1之前的统统一起写在 v2.1.1里面了)

  1. 完成__最大概率分词算法__和__HMM分词算法__,并且将他们结合起来成效果最好的MixSegment
  2. 进行大量的代码重构,将主要的功能性代码都写成了hpp文件。
  3. 使用cmake工具来管理项目。
  4. 使用 limonp作为工具函数库,比如日志,字符串操作等常用函数。
  5. 使用 husky 搭简易分词服务的服务器框架。