`
kuwoleft
  • 浏览: 1101697 次
文章分类
社区版块
存档分类
最新评论

启发测试计划:上下文模型

 
阅读更多
启发测试计划:上下文模型
陈能技
2007-8-12
原文:原文:Heuristic Test Planning:Context Modal - James Bach
Context-Driven Planning 上下文驱动计划
1、明白谁会参与项目,他们发挥什么作用
2、明白GIVENS(给定的条件),并谈判决定给定的工作约束,明白给定的资源限制
3、明白MISSIONS(给定的任务),并谈判决定给定的测试任务
4、决定CHOICES(选择)怎样充分利用GIVENS(给定的条件)进行测试以完成MISSIONS(给定的任务)
5、监视项目的状态并持续调整计划以便维持GIVENS(给定的条件)、CHOICES(选择)和MISSIONS(任务)之间的平衡
Test Process Choices 测试过程选择
我们的测试员和测试经理通常很难控制工作的上下文。甚至很难控制工作本身。当测试过程的控制权在测试组之外,会导致更低的效率和有效性。这个模型设计假设有三个元素是你可以控制的:测试策略、测试资源调度和测试结果:
Test strategy 测试策略
测试策略就是你怎样覆盖产品并发现问题。你可以用各种方法测试所有的东西,所以这里也是你很难做出决定的地方。
Test logistics 测试资源调度
你在什么时候应用、怎样应用资源来执行测试策略,包括怎样与项目组成员协调工作。
Test products 测试结果
测试结果就是测试产生的、可见的各种材料和结果,可能包括测试脚本、bug报告、测试报告、或测试数据等。
分享到:
评论

相关推荐

    机器阅读理解上下文语言模型综述论文

    在深度神经网络技术的爆发和上下文语言模型(Contextualized Language Models, CLMs)的推动下,MRC研究经历了两个重大的突破。本文综述了机器阅读理解的多个研究主题,主要包括MRC和CLM的起源和发展、对NLP社区的...

    NLP:语言表示模型BERT

    该模型的核心创新在于其预训练过程,它利用无标注文本生成深度双向表示,同时考虑左右两侧的上下文信息。这使得BERT能够以一种更全面的方式理解语境,而不仅仅是单向地从左到右或从右到左。 传统的语言模型如ELMo ...

    NLP:一种神经概率语言模型A Neural Probabilistic Language Model.pdf

    通过这种方法,模型能够利用更长的上下文信息,从而显著优于当时的n-gram模型。尽管训练这样的大型模型(包含数百万个参数)在当时是一个重大挑战,但他们的实验结果在两个文本语料库上证明了该方法的有效性。 ...

    自然语言处理之BERT模型算法、架构和案例实战.pptx

    BERT模型算法采用了Transformer架构,通过预训练的方式,让模型能够自动学习语言的表示和上下文关系。该模型可以应用于多个自然语言处理任务,例如情感分析、文本分类和命名实体识别等。 本书详细阐述了BERT模型的...

    saliency detection by multi-context deep learning

    《基于多上下文深度学习的显著性检测》 在计算机视觉领域,显著性检测是一项重要的任务,它旨在预测...此外,这一方法也启发了后续研究者探索更多上下文信息和深度学习的结合方式,推动了计算机视觉领域的进一步发展。

    大模型-提示词工程基础认知视频

    它们是人与大模型交互的桥梁,能够帮助模型理解任务的上下文和目标。通过精心设计和优化提示词,我们可以提高模型的性能,使其在各种任务上表现得更加智能和准确。 首先,理解提示词工程的重要性。在大模型中,输入...

    pytorch文本分类word2vec+TextCNN. 完整代码+数据 可直接运行

    Word2Vec有两种主要的训练模型:CBOW(Continuous Bag of Words)和Skip-gram。在CBOW中,模型尝试预测目标词,给定其上下文词;而在Skip-gram中,模型则尝试预测上下文词,给定目标词。这些模型通常采用负采样或...

    Python-ADAM受IBMWatson启发的问答系统

    - **上下文理解**:Watson能够理解问题的上下文,ADAM也致力于提升这一能力,以便更准确地理解问题的含义。 - **深度学习集成**:Watson利用深度学习进行复杂任务,ADAM可能使用类似的技术提高模型的预测精度。 *...

    PAQ算法英文版解释

    2. **自适应模型权重**:PAQ算法根据不同的上下文条件动态调整模型的权重,使得预测更加精确。这允许算法根据输入数据的变化自动调整预测策略。 3. **神经网络混合**:PAQ引入了神经网络的概念来混合不同的预测模型...

    AnimeGANv2.zip

    AnimeGANv2的核心改进在于引入了多尺度自注意力机制(Multi-scale Self-Attention Mechanism),这使得模型在处理图像时能够捕获更丰富的上下文信息,特别是在处理细节和边缘时,提高了生成图像的质量和逼真度。...

    Python-PyTorch中的SkipThoughtVector实现

    SkipThought Vectors的核心思想是通过前向和后向语言模型来预测句子的上下文。具体来说,模型会尝试预测当前句子的前一个句子和后一个句子,以此来捕获句子间的上下文信息。这使得模型能学习到更丰富的语义特征,而...

    BERT中文翻译PDF版.pdf

    BERT通过联合调节所有层中的左右上下文来预训练深度双向表示,其核心思想是利用“遮蔽语言模型”(Masked Language Model, MLM)和“下一个句子预测”(Next Sentence Prediction, NSP)两个预训练任务来训练模型。...

    UNet Python实现: 细胞边缘检测

    这种设计使得模型能够同时捕获局部细节和全局上下文信息。网络的左侧部分负责特征提取,通过多个卷积层和池化层逐层减少空间分辨率,增加特征的抽象程度。右侧部分则负责将这些高级特征与原始输入图像的空间信息相...

    ChatGPT技术的评估指标与方法介绍.docx

    - **问答任务**:通过提出一系列问题并由ChatGPT进行回答的方式,测试其理解上下文和提供准确答案的能力。这种方式可以直接反映模型对于提问的理解程度。 - **文本分类**:利用已标记的数据集来测试ChatGPT能否正确...

    Qt Creator中的3D绘图及动画教程(参照NeHe)(所有的资源文件)

    3. **初始化OpenGL上下文**:在Qt Creator中,我们需要设置一个OpenGL上下文,并确保它正确配置。这通常在窗口的初始化函数中完成,如initializeGL()。在这里,我们可以调用glViewport()设定视口大小,glMatrixMode...

    ChatGPT各项能力的起源.pdf

    2. 上下文学习(in-context learning):遵循给定任务的几个示例,然后为新的测试用例生成解决方案。 3. 世界知识:包括事实性知识(factual knowledge)和常识(commonsense)。 二、GPT-3 的能力来自于大规模预...

    Python-RESCAN一种单图像深度去雨算法

    2. **模型构建**:根据RESCAN的架构设计网络结构,包括输入层、SE模块、上下文聚合层以及递归层。 3. **训练模型**:使用带标签的训练数据(无雨图像和对应的有雨图像)来训练模型,通过反向传播和优化算法(如Adam...

    Recommender-Baseline-Model:常用的推荐基准模型,包括传统的统计模型和神经网络模型。 专注于SRS(顺序推荐系统)

    它利用自注意力机制捕捉用户行为序列中的上下文信息,提供更精准的推荐。 2. **SASRec (Self-Attention Sequential Recommendation Model)**:SASRec也是一种基于Transformer的模型,专门针对序列推荐问题。它通过...

    论文研究-港口油品配送系统调度优化的启发式方法.pdf

    对中文地名未登录词识别而言,首先充分挖掘地名用字本身的特征,及其上下文用字的特征,其次通过最大熵模型把这些来源不同的知识整合。在特征选择和知识获取时,通过对中文地名这个特定群体进行针对性分析,得到了更...

    2023年美团技术年货

    - **上下文融合**:将用户的地理位置、时间等多种上下文信息融入模型中,提高推荐的精准度。 - **动态调整**:根据用户的实时反馈动态调整推荐列表,提升用户体验。 #### 二、后端/系统领域 **2.1 美团代码托管...

Global site tag (gtag.js) - Google Analytics