txt文件

Google NLP BERT-Base中文模型2018-11-03发布版本 评分:

Google NLP(自然语言处理) BERT-Base中文模型2018-11-03发布版本,国内无法直接下载,上传百度云盘下载地址及提取码分享给大家
2019-01-30 上传 大小:76B
立即下载
其他文档
distilbert-base-uncased-finetuned-sst-2-english 预训练模型

来自 https://huggingface.co/distilbert-base-uncased-finetuned-sst-2-english/tree/main#

立即下载
zip文件
flink-connector-kafka-base-2.11-1.10.0-API文档-中文版.zip

赠送jar包:flink-connector-kafka-base_2.11-1.10.0.jar; 赠送原API文档:flink-connector-kafka-base_2.11-1.10.0-javadoc.jar; 赠送源代码:flink-connector-kafka-base_2.11-1.10.0-sources.jar; 赠送Maven依赖信息文件:flink-connector-kafka-base_2.11-1.10.0.pom; 包含翻译后的API文档:flink-connector-kafka-base_2.11-1.10.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.flink:flink-connector-kafka-base_2.11:1.10.0; 标签:flink、11、apache、base_2、connector、kafka、jar包、java、API文档、中文版; 使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可纵览文档内容。 人性化翻译,文档中的代码和结构保持不

立即下载
其他文档
m3e-base.tgz

m3e-base.tgz

立即下载
其他文档
bert-base-uncased 预训练模型

来自 https://huggingface.co/bert-base-uncased/tree/main

立即下载
zip文件
bert-base-uncased

Can‘t load tokenizer for ‘bert-base-uncased‘ 用于解决上述问题的资源包,在github上面下载的下来的。 下载完了解压缩。 之后在项目工程新建一个文件夹,命名为bert-base-uncased 之后把解压缩的文件放到bert-base-uncased文件夹里面,重新运行就可以了。

立即下载
zip文件
bert-base-chinese.zip

bert-base-chinese bert中文预训练基线模型

立即下载
rar文件
albert-chinese-base.rar

for transformers and pytorch

立即下载
其他文档
shibing624-text2vec-base-chinese模型文件

shibing624_text2vec-base-chinese模型文件

立即下载
zip文件
bert-base-uncased-pytorch_model.bin

huggingface的bert-base-uncased-pytorch_model.bin,然后把URL改了就可用

立即下载
txt文件
baichuan2-7B-base 大模型 百度网盘

新出的baichuan2_7B_base 大模型 百度网盘链接,包括所有Hugging Face资源,hugging face下载太麻烦了,本人下载下来放到百度网盘里供国内用户下载

立即下载
rar文件
google-vit-base-patch16-224.rar

用于Vision Transformer的预训练模型,来源于huagging face。 Google ViT-Base-Patch16-224是一个基于Vision Transformer(ViT)的深度学习模型。该模型由Google的研究人员开发,用于图像分类和其他视觉任务。 在ViT模型中,图像被分割成一系列固定大小的块(或“patches”),然后这些块被线性嵌入到一个高维空间中。这些嵌入向量随后被输入到一个标准的Transformer架构中,该架构最初是为自然语言处理任务设计的,但已被成功应用于各种视觉任务。 Google ViT-Base-Patch16-224的具体参数如下: 模型大小:Base(基础版),这意味着它使用了一个相对较小的Transformer模型。 Patch大小:16x16,这意味着图像被分割成16x16像素的块。 输入图像大小:224x224,这是模型期望的输入图像大小(在预处理阶段,图像可能会被缩放到这个大小)。

立即下载
zip文件
huggingface的bert-base-chinese

https://huggingface.co/google-bert/bert-base-chinese pytorch和tensorflow都有

立即下载
rar文件
bert-base-chinese.rar

pytorch实现的中文bert预训练模型bert-base-chinese,可用于中文短文本分类,问答系统等各种NLP任务(网盘链接)

立即下载
zip文件
Davlan/bert-base-multilingual-cased-ner-hrl NER命名实体识别模型

huggingface上的Davlan/bert-base-multilingual-cased-ner-hrl命名实体识别模型,包含中英等16种语言的人名、地名、组织识别

立即下载
zip文件
自然语言处理-bert-base-chinese模型

BERT(Bidirectional Encoder Representations from Transformers)是一种预训练语言表示模型,旨在为自然语言处理任务提供高质量的特征表示。bert-base-chinese 是 BERT 模型的一种变体,它在中文语料库上进行预训练,以便更好地理解和处理中文文本。适用于自然语言处理工程师、数据科学家、机器学习研究者以及对中文文本处理感兴趣的开发者。bert-base-chinese 可用于各种中文自然语言处理任务,如文本分类、情感分析、命名实体识别、关系抽取等。其主要目标是帮助开发者更准确地理解和处理中文文本,提高自然语言处理任务的性能。bert-base-chinese 模型已经过预训练,可以直接应用于各种中文自然语言处理任务。在实际应用中,开发者可以根据具体任务需求对模型进行微调,以获得更好的性能。

立即下载
zip文件
paraphrase-mpnet-base-v2

Milvus问答系统 对应模型

立即下载
zip文件
bert-base-chinese (pytorch版本预训练模型)

该模型已针对中文进行了预训练,训练和随机输入掩码已独立应用于词块(与原始 BERT 论文中一样)。

立即下载
热门资源标签
Global site tag (gtag.js) - Google Analytics