We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
BERT 的问世证明了语言预训练模型对下游的nlp任务有很大的提升,可以帮助提升关系抽取的效果。简单的使用BERT 语言预训练模型方式,将句子输入到BERT后,得到的结果输入到全连接层即可做关系抽取任务。实验结果表明可以取得相当不错的效果。
使用方法:
python main.py --model_name Bert
更多配置见 config.py 文件
config.py
参考文献: