`
haoningabc
  • 浏览: 1465878 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

bert的基本使用

    博客分类:
  • bert
阅读更多
参考https://www.jianshu.com/p/3d0bb34c488a

rasa:https://blog.csdn.net/u012526436/article/details/82911565


一个是基于MRPC(Microsoft Research Paraphrase Corpus )的句子对分类任务,一个是基于SQuAD语料的阅读理解任务。run demo分为以下几步


零。先安装环境安装
Anaconda3-2019.10-MacOSX-x86_64.pkg
conda基本使用
conda默认装在了~/opt/下
conda init zsh
conda create --name mechinelearning python=3.7

conda activate machinelearning
conda info --env
pip install --index-url https://mirrors.aliyun.com/pypi/simple/ tensorflow==1.15.0
pip install bert-serving-server
pip install bert-serving-client


一。先运行一个已有模型的例子
下载chinese_L-12_H-768_A-12

运行一个可用的模型的例子为:
服务端
bert-serving-start -model_dir chinese_L-12_H-768_A-12 -num_worker=2


客户端:client.py
from bert_serving.client import BertClient
bc = BertClient()
bc.encode(['龙猫小组真棒', '关注有惊喜', '哈哈'])


启动服务端后,运行python client.py
在服务端查看输出


############

二。尝试训练一个简单模型
1、下载数据预训练模型:uncased_L-12_H-768_A-12
官网的
BERT-Base, Uncased

2.下载语料:python3 download_glue_data.py --data_dir glue_data --tasks MRPC
3.设置环境变量
export BERT_BASE_DIR=/opt/mt/mydata/bert/uncased_L-12_H-768_A-12
export GLUE_DIR=/opt/mt/mydata/glue_data

4.下载bert源码,设置好预训练模型,语料,和输出的地址,然后运行
python run_classifier.py \
  --task_name=MRPC \
  --do_train=true \
  --do_eval=true \
  --data_dir=$GLUE_DIR/MRPC \
  --vocab_file=$BERT_BASE_DIR/vocab.txt \
  --bert_config_file=$BERT_BASE_DIR/bert_config.json \
  --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt \
  --max_seq_length=128 \
  --train_batch_size=32 \
  --learning_rate=2e-5 \
  --num_train_epochs=3.0 \
  --output_dir=/opt/mt/mydata/bert/mrpc_output

之后得到2.5G的模型
checkpoint                                   events.out.tfevents.1595674528.hnmtmbp.local model.ckpt-0.meta                            train.tf_record
eval                                         graph.pbtxt                                  model.ckpt-343.data-00000-of-00001
eval.tf_record                               model.ckpt-0.data-00000-of-00001             model.ckpt-343.index
eval_results.txt                             model.ckpt-0.index                           model.ckpt-343.meta


分享到:
评论

相关推荐

    BERT模型实战1

    本资源主要介绍了 BERT 模型的基本组成和实现细节,涵盖了自注意机制、多头机制、位置信息表达、LayerNormalize、Decoder 和训练 BERT 等方面。 BERT 基本组成 BERT 模型的基本组成是一个 Seq2Seq 网络,输入和...

    huggingface的bert-base-uncased

    **标题解析:** "huggingface的bert-base-uncased" 指的是Hugging Face平台...通过以上知识点,我们可以了解到BERT模型的基本原理、Hugging Face Model Hub的作用,以及如何在不同的深度学习框架中使用和微调这个模型。

    Python-使用预训练语言模型BERT做中文NER

    "Python-使用预训练语言模型BERT做中文NER" 这个标题指出我们将探讨如何在Python环境中利用预训练的BERT模型进行中文命名实体识别(NER)。BERT,全称为Bidirectional Encoder Representations from Transformers,...

    huggingface的bert-base-chinese

    6. `README.md`:通常包含项目的基本信息、如何使用模型以及相关说明。 7. `flax_model.msgpack`:Flax是一个用JAX库编写的轻量级神经网络框架,此文件可能是Flax版本的模型权重。 8. `model.safetensors`:可能是一...

    pytorch-pretrained-BERT-master_python_bert问答_BERT_

    PyTorch-pretrained-BERT-master是一个专注于使用PyTorch实现的BERT(Bidirectional Encoder Representations from Transformers)模型库,它为用户提供了预训练的BERT模型,可以用于各种自然语言处理任务,如语言...

    bert架构图.xmind

    用脑图解析bert代码架构,其中有丰富的备注,备注每个函数是怎么实现的。

    基于Pytorch的Bert应用

    **BERT的基本原理** BERT的核心是Transformer架构,其设计灵感来源于Vaswani等人在2017年的论文《Attention is All You Need》。BERT模型的特点在于它采用双向Transformer编码器,不同于以往的自左向右或自右向左的...

    A little bert.7z

    前者很可能是一个PDF文档,详细介绍了BERT的基本概念、工作原理、训练过程以及可能的应用场景。这种类型的文档通常会包含理论介绍、技术细节,甚至可能有代码示例,帮助读者深入理解BERT的工作机制。 "A little ...

    基于pytorch的谷歌自然语言处理模型BERT代码实现

    以上就是基于PyTorch实现谷歌BERT模型的基本流程。实际应用中,还需要根据具体的自然语言处理任务调整模型结构,如添加额外的分类或序列标注层,并对数据集进行适当的处理。通过这个过程,你可以充分利用BERT的强大...

    chinese-bert-wwm-ext.rar

    在原版BERT中,随机选择单词内的部分字符进行掩码,而在wwm策略下,整个词汇被一起掩码,使得模型在训练时更注重语义完整性的理解,有助于提升对中文这种以词为基本单位的语言的处理能力。 哈工大团队的贡献在于,...

    自然语言处理之BERT模型算法、架构和案例实战.pptx

    在本书中,作者还对BERT模型的架构和实现进行了详细的介绍,包括如何使用PyTorch等框架实现BERT模型。这些内容不仅让我对BERT模型有了更深入的了解,也让我对NLP领域的其他模型和技术有了更全面的认识。 此外,本书...

    李宏毅 BERT PPT

    **李宏毅 BERT PPT 知识点详解** ...通过李宏毅的BERT PPT,初学者可以全面了解BERT的基本概念、工作原理和实际应用,为进一步深入学习和实践打下坚实基础。同时,对GPT的理解也有助于拓宽对现代NLP技术的认知。

    Bert 谷歌官方指南.docx

    ### BERT:预训练语言表示的新方法 #### 概览 BERT(Bidirectional Encoder ...无论是从理论研究还是实际应用的角度来看,掌握BERT的基本原理和技术细节对于从事NLP领域的专业人士来说都是至关重要的。

    A BERT Baseline for the Natural Questions.pdf_问答系统_bert问答_ANatur

    首先,我们需要理解BERT的基本原理。BERT模型基于Transformer架构,采用双向Transformer编码器,与以往的自左向右或自右向左的预训练模型不同,它同时考虑了左右两侧的上下文信息。这种设计使得BERT能够更准确地捕获...

    NER-BERT-pytorch-master_ner_

    本文将深入探讨如何使用BERT模型在Python PyTorch环境中构建一个高效的NER系统。 首先,理解NER的核心在于序列标注。传统的NER方法通常采用条件随机场(CRF)、隐马尔科夫模型(HMM)或基于规则的方法。然而,这些...

    ELMO,GPT,BERT对比.docx

    ELMO使用了双层双向LSTM,GPT OpenAI使用了Transformer结构,BERT使用了Transformer结构。ELMO的优点是可以根据上下文动态调整word embedding,解决多义词问题,但是它的缺点是特征抽取器选择方面存在缺陷。GPT Open...

    bert的uncased和cased的区别.docx

    BERT,全称Bidirectional Encoder Representations from Transformers,是由Google在2018年提出的一种预训练语言模型,它极大...开发者和研究人员需要根据他们的应用场景来决定使用哪种版本的BERT,以达到最佳的性能。

    WangYuDi 老哥的关于BERT原理的一份PPT分析

    BERT的基本组成是一个Seq2Seq(Sequence to Sequence)网络,这是一个常用于机器翻译模型的架构。Seq2Seq网络由编码器和解码器组成,编码器用于理解输入序列,而解码器用于生成输出序列。在BERT中,它利用...

    毕业设计:Python (bert)深度学习文本相似度检测系统设计(源码 + 数据库)

    2. **深度学习框架**:可能使用了TensorFlow或PyTorch这样的深度学习框架来构建和训练BERT模型。 3. **BERT模型**:理解BERT的预训练机制,如Masked Language Modeling和Next Sentence Prediction,以及如何对BERT...

    01 BERT py_BERT_anykey_源码

    BERT的基本版本有BERT-Base和BERT-Large两种,分别包含12层和24层Transformer,每层内部又有自注意力机制和前馈神经网络。 2. **Python实现**:Python是NLP领域的常用编程语言,因为它有许多强大的库,如TensorFlow...

Global site tag (gtag.js) - Google Analytics