`
piperzero
  • 浏览: 3593735 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
文章分类
社区版块
存档分类
最新评论

隐变量(Hidden Variables)

阅读更多
<iframe align="center" marginwidth="0" marginheight="0" src="http://www.zealware.com/csdnblog.html" frameborder="0" width="728" scrolling="no" height="90"></iframe>

在软件开发的过程中的确存在另外的变量,但是他们并不是隐变量的<wbr></wbr>,我们只是忽略了它们,这些被称为"人"的变量很多人都有可能成为<wbr></wbr>,它具有不可预知性除非你在寻找一种方法论来排除他们<wbr></wbr>。应用方法论的目的是什么呢?我认为就是得到一个可以忽略掉任何相<wbr></wbr>关的独立因素而仍然可用的公式。管理者最大的心愿就是程序员可以被看作是<wbr></wbr>可以互换通用的部分,因为否则的话公司看来对于一个工程的成功与否<wbr></wbr>就完全有偶然性来支配了。


我认为这个问题或者很多有关于计算的细节就是确定性的思想<wbr></wbr>。它看起来似乎就是逻辑推理,毕竟我们研究的是的是一个 YES或者 No的二元领域。但是在工作中似乎存在着一些不确定原理<wbr></wbr>。当系统变得更大更复杂的时候我就走出了 YesNo 的领域,而进入了存在可能性的世界。


但是希望似乎就在哪里,我们却依然不能得到:应该存在一个神奇的公<wbr></wbr>式,它将让我们确定性的控制工程的结果。而在我们寻找一个确定性答<wbr></wbr>案的时候,我们不能考虑到没有的可能性或者至少这不是最多产的方式。而且我们当然不能承认通向成功的路可能主要的在于人类的相互作用<wbr></wbr>,或者成功的项目正如它们喜欢的是通过雇佣可能存在的最好的组的可<wbr></wbr>能性堆积而成的,这里的"最好"的意义随着多的无法控制的变量而变<wbr></wbr>化,因此在不同的环境里有不同的答案。


我认为最难承认的事情是,软件的发展是和装配线路完全相反<wbr></wbr>,但是却远非写小说或者演话剧甚至是画画之类的艺术创作<wbr></wbr>。似乎我们完全忽略了行为的重要细节。谚语曰:"画画就是把颜料涂<wbr></wbr>在表面。所以我可以像莫奈特用他的画画工具把颜料涂到一个表面一样<wbr></wbr>用喷漆枪在谷仓上达到一样的效果 ."。而且毕竟我们只是在操作比特,所以这似乎就是推出一个逻辑的结<wbr></wbr>论,除了它好像会不好用。


在我们坚持确定论思想的时候,我们对可能存在的更好的方法熟视无睹<wbr></wbr>。依然很难放开这种思想反问一下:如果没有可能控制所有的事物怎么<wbr></wbr>办?我们究竟如何依靠我们的喜好来推动事物并且在那些约束范围之内<wbr></wbr>工作?




分享到:
评论

相关推荐

    简单易懂diffusion模型讲解 - 从前置知识深度生成模型 隐变量 VAE开始.pptx

    隐空间(latent space)是高维空间,隐变量(hidden variables)是隐空间中的点。隐空间可以通过自动编码器(AutoEncoder)来学习。 Diffusion 模型 vs. GAN Diffusion 模型和 GAN 都是深度生成模型,但是 ...

    ASP技术常遇问题解答-如何将服务器端变量转换为客户端的变量?.zip

    例如,你可以使用`Session`对象存储用户会话信息,或者使用`Server`对象的`Variables`集合来定义全局变量。这些变量在服务器端处理请求时有效,但它们不会自动传递到客户端。 要将服务器端变量传递到客户端,主要有...

    code_livre_variables_cachees:附录R由N. Peyrard和O. Gimenez协调的生态学中隐藏变量的统计方法

    隐藏变量(hidden variables)在生态学中的应用包括但不限于: 1. **物种共存**:隐藏变量可能代表物种之间的相互作用强度,例如竞争、捕食关系,这些关系在实际观察中可能不明显,但对物种共存模式有显著影响。 2...

    A Gentle Tutorial of the EM Algorithm and its apllication to parameter estimation for Gaussian Mixture and Hidden Markov Models

    EM算法(Expectation-Maximization Algorithm)是一种迭代算法,常用于解决最大似然估计问题,尤其是在含有隐变量(latent variables)的情况下非常有效。EM算法包含两个主要步骤:期望步(E-step)和最大化步(M-...

    Smarty中文手册 chm版

    $config_read_hidden [配置读取隐藏变量] $config_fix_newlines [配置固定换行符变量] $default_template_handler_func [默认模板处理函数变量] $php_handling [php处理变量] $security [安全变量] $secure_dir...

    smarty手册.chm

    $config_read_hidden [配置读取隐藏变量] $config_fix_newlines [配置固定换行符变量] $default_template_handler_func [默认模板处理函数变量] $php_handling [php处理变量] $security [安全变量] $secure_dir...

    EM算法讲解PPT课件.pptx

    EM算法,全称为Expectation-Maximization(期望-最大化)算法,是一种在处理含有隐含变量(hidden variables)的概率模型参数估计中广泛使用的迭代方法。它主要被用于那些数据不完全或者存在缺失值的情况,例如混合...

    ijcai99-LearningBayesianNetworks.rar_驱动编程_Java_

    结合描述中的“Learning Bayesian Networks With Hidden Variables for User Modeling”,我们可以推断这篇资料主要探讨如何使用带有隐藏变量的贝叶斯网络来建模用户行为。 贝叶斯网络,又称为贝叶斯决策网络,是一...

    具有变量错误的极限学习机

    然而,大多数改进版的ELMs通常讨论的是带有输出噪声的样本数据的近似问题,而非同时包含输入和输出值噪声的样本数据,即所谓的误差变量模型(errors-in-variables,EIV)。本文提出了一种名为(正则化)TLS-ELM...

    tensorflow模型的save与restore,及checkpoint中读取变量方式

    l = tf.layers.dense(tf_x, 10, tf.nn.relu) # hidden layer o = tf.layers.dense(l, 1) # output layer # 计算损失函数 loss = tf.losses.mean_squared_error(tf_y, o) # 定义优化器 train_op = tf.train....

    广义变量参数HMM的深度神经网络瓶颈特征

    然而,本文提出了一种新颖的方法,即利用广义变量参数隐马尔可夫模型(Generalized Variable Parameter Hidden Markov Models, GVP-HMMs)来模拟声学特征与DNN瓶颈特征之间的复杂关系。 #### 广义变量参数HMM(GVP-...

    rbm.zip_Boltzmann_RBM matlab_binary RBM_boltzmann matlab_rbm

    2. 数据降维:通过RBM的潜变量(hidden variables),可以将高维度数据映射到较低维度空间,减少过拟合风险。 3. 自编码器:RBM也可以视为一种特殊的自编码器,用于无监督预训练,之后再进行有监督的微调。 4. ...

    将查询内字词依存关系合并到方面查询语言模型中。

    文章中提出的方面隐马尔可夫模型(Aspect Hidden Markov Model,简称AHMM)是一种全新的模型,它将查询项的组合视为潜在变量(latent variables),这些潜在变量代表着查询的某个方面,并形成一个遍历型隐马尔可夫...

    vbs 简单整人小程序

    1. **变量(Variables)**:VBS允许声明变量来存储信息。在整人小程序中,可能用变量来存储用户输入或特定的整人效果。 2. **控制结构(Control Structures)**:如`If...Then...Else`语句和`For...Next`循环,用于...

    EM算法课件

    EM算法,全称为Expectation-Maximization Algorithm(期望最大化算法),是一种用于求解带有不可观测变量(hidden variables)的数据模型参数估计问题的有效算法。它广泛应用于统计学、机器学习等领域,在处理不完整...

    通用的维特比算法实现

    - **前向变量**(Forward Variables)和**后向变量**(Backward Variables):用于计算状态概率和优化算法性能。 - **维特比路径**:记录最优状态序列的变量。 在编程实现中,这些组件通常以数据结构的形式存储,...

    neural_network_tf.zip_neural_network_tf

    1. **TensorFlow基础**:包括变量(Variables)、会话(Sessions)、常量(Constants)、占位符(Placeholders)、操作(Operations)和图(Graphs)等基本概念。 2. **神经网络组件**:输入层(Input Layer)、隐藏...

    PRML读书会笔记

    - **Hidden Markov Models(HMM)**:介绍隐马尔科夫模型的数据生成过程及其参数的EM求解方法。 - **HMM预测与解码**:探讨HMM的预测以及寻找最优路径的Viterbi算法。 通过以上章节的详细介绍可以看出,《Pattern ...

    香港科技大学Tensorflow三天速成课件(3)

    3. **变量(Variables)**:用于保存模型参数的数据结构,需要初始化才能使用。 4. **占位符(Placeholders)**:在图中定义输入数据的位置,实际值在会话运行时通过`feed_dict`参数传入。 #### 三、RNN详解 ##### RNN...

Global site tag (gtag.js) - Google Analytics