说明:本项目处于开发阶段,暂时不可用
简介:以Tensorflow的Keras的Bert预训练模型开发NLP的各种任务。
项目特点
- 下载稳定,较为典型的测试数据,附带详细介绍
- 数据接口封装,减少数据的处理工作
- 模型采用tf.keras完成,方便快捷不失灵活
- 方便的保存模型和部署
- Tensorflow:1.13.1
- Tensorflow-hub
- 性能测试
- Batch输入
- 二分类任务
已完成。数据量不大的情况下可以不使用微调,否则参数量增大可能会过拟合。
- 多分类任务 BERT的多分类任务和二分类类似,只需要修改标签,然后sigmod换softmax,损失函数也换成多分类交叉熵即可。目前没有稳定的外链数据,所以没写example。
- 多标签任务
- NER
开发中
- 斯坦福SQUAD类似的中文检索式阅读理解
未完成
- h5转saved_model。
- 最好的方式是可以使用
tf.keras.experimental.export_saved_model
导出模型,然后直接使用TF serving部署。
- 多输入的TF Data写法
- GPU利用率的比较
- Windows测试
- 为什么用tf.keras而不是keras tf.keras成为TF2.0的主要模式,由TF团队开发,支持更多TF的特性包括tf.data以及tf serving,TF2.0出了之后项目会迁移到TF2.0,而keras已经较长时间没有重大更新了,所以tf.keras是更好的选择。