其他文档

pytorch_model.bin 评分:

本资源为albert的中文预训练模型的pytorch版本,albert为bert的轻量化版本,训练速度快,参数量小
立即下载
7z文件
bert_sentence_classification.7z

基于HuggingFace 哈工大hfl/chinese-bert-wwm-ext预训练模型微调的中文句子分类模型

立即下载
zip文件
bert-base-uncased-pytorch_model.bin

huggingface的bert-base-uncased-pytorch_model.bin,然后把URL改了就可用

立即下载
zip文件
将 tensorflow 版本的预训练 bert model 转化为 pytorch 版本.zip

安装python依赖 pip install -r requirement.txt

立即下载
7z文件
sentence_classification.7z

基于HuggingFace 哈工大hfl/chinese-robert-wwm-ext预训练模型微调的中文句子分类模型

立即下载
zip文件
pytorch_model.zip

pytorch_model.zip

立即下载
rar文件
pytorch-model.bin

pytorch_model.bin

立即下载
zip文件
工业知识图谱关系抽取-高端装备制造知识图谱自动化构建 竞赛-完整源码

这里以[工业知识图谱关系抽取-高端装备制造知识图谱自动化构建 竞赛 - DataFountain](https://www.datafountain.cn/competitions/584)为例,一步一步的进行。 - 拷贝项目:```git clone https://github.com/taishan1994/pytorch_triple_extraction.git ```。 - 载预训练模型[chinese-roberta-wwm-ext]([hfl/chinese-roberta-wwm-ext at main (huggingface.co)](https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main))到model_hub/chinese-roberta-wwm-ext/下,需要的是config.json、pytorch_model.bin和vocab.txt,当然也可以去下载[chinese-bert-wwm-ext]

立即下载
zip文件
(pytorch)模型文件下载 bert-base-chinese

(pytorch)模型文件下载 bert-base-chinese

立即下载
zip文件
基于Pytorch的BERT-IDCNN-BILSTM-CRF中文实体识别实现

基于Pytorch的BERT-IDCNN-BILSTM-CRF中文实体识别实现 模型训练(可选) 下载pytorch_model.bin到data/bert 下载训练集和测试集到data/ 检查配置constants.py 执行train.py,命令为 python train.py 中文命名实体识别系统运行步骤 已训练好的BERT_IDCNN_LSTM_CRF模型(如果有),下载到data/model 检查配置constants.py 单次运行系统,执行Wrapper.py,命令为 Wrapper.py "新华网1950年10月1日电(中央人民广播电台记者刘振英、新华社记者张宿堂)中国科学院成立了。" 若想多次运行系统,则执行ChineseNer.sh,命令为./ChineseNer.sh 依赖 python >= 3.5 torch = 0.4.0 pytorch-pretrained-bert tqdm numpy ...

立即下载
zip文件
uncased_L-12_H-768_A-12.zip

https://github.com/google-research/bert 里的预训练好的模型,英文的

立即下载
其他文档
bert-base-chinese-tf_model.h5

bert-base-chinese-tf_model.h5

立即下载
zip文件
KeyPhraseGeneration-BERT:克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 相应地在experimentsbase_modelparams.json中更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_

KeyPhraseGeneration-BERT 克隆此存储库,然后从scibert repo安装pytorch-pretrained-BERT,解压权重(将其权重转储文件重命名为pytorch_model.bin)并将vocab文件转换为新的文件夹模型。 在experiments / base_model / params.json中相应地更改参数。 如果GPU的VRAM约为11 GB,我们建议将批大小保持为4,序列长度为512,间隔为6个周期。 要进行培训,请运行命令python train.py --data_dir数据/任务1 / --bert_model_dir模型/ --model_dir实验/ base_model要进行评估,请运行命令python评估.py --data_dir数据/任务1 / --bert_model_dir模型/ --model_dir实验/ base

立即下载
txt文件
百度云提取.bert-large-uncased-pytorch_model.bin

bert-large-uncased-pytorch_model.bin 这是1024位的,资源过大,超过一个g,我放百度云上了 768位的看我的博客免费获取

立即下载
zip文件
chinese_L-12_H-768_A-12.zip

人工智能—机器学习—深度学习—自然语言处理(NLP)——BERT中文预训练模型,使用绝大部分场景,不同领域也可使用

立即下载
pdf文件
Pytorch转tflite方式

主要介绍了Pytorch转tflite方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

立即下载
zip文件
annotated_wikisql_and_PyTorch_bert_param.zip

自然语言转SQL的SOTA项目https://github.com/guotong1988/NL2SQL-RULE 的完整数据

立即下载
其他文档
handwriting_detection.py

使用PyTorch 训练的基于MNIST 数据集的手写数字识别网络

立即下载
热门资源标签
Global site tag (gtag.js) - Google Analytics