`
LiYunpeng
  • 浏览: 952322 次
  • 性别: Icon_minigender_1
  • 来自: 大连
社区版块
存档分类
最新评论

(TR1008) Transformer couldn't read the connectino information for database...

IBM 
阅读更多
(TR1008) Transformer couldn't read the connectino information for database[LiYunpeng_Test] from COGNOS.INI,from Cognos Impomptu Query Definition(IQD) Runtime Gateway location,or from IQD file.


这个问题让我找了好久,关键就是最开始没明白解决问题的字符串是什么意思,最后终于解决了,废话不多

http://www-01.ibm.com/support/docview.wss?rs=0&q1=tr1008&uid=swg21341980&loc=en_US&cs=utf-8&cc=us&lang=en

这是IBM官方给的答案

我遇到的也许只是很多种可能中的一种

答案说要在Cognos安装目录下找到COGNOS.INI,然后在后面添加一个字符串,最开始不知道这个字符串是从哪里来的,后来找了一些相关资料知道

添加以下
[Databases]
GOS=;LOCAL;OD;DSN=GOScer1@ASYNC=0@0/0

这个是示例,而这个字符串其实就是通过 Cognos Portal门户中建立的数据源连接时给的字符串


而最前面的就是门户中创建数据源的名字
这样拼接起来追加到COGNOS.INI文件最后面就可以了

而还有一点要注意的就是,其实不同版本的Cognos其实文件名叫的不一样,我这目前只有Cognos8.3,然后我找了好半天COGNOS.INI,没找到,后来查资料原来,在这个版本中叫cs7g.ini这个文件,搜索以下就可以搜到,好了这也算是笔记了,分享一下
  • 大小: 12.9 KB
分享到:
评论

相关推荐

    tr0109 transformer couldn't read the data source 解决方案

    整了两个小时,终于弄明白了这个问题,共享一下。。。。

    The Illustrated Transformer – Jay Alammar.pdf

    tranformer,self-attention,multi-attention

    使用 Keras 和 tensorflow 实现的Transformer模型.zip

    Transformer模型是深度学习领域中的一种先进架构,最初在2017年的论文《Attention is All You Need》中提出。这个模型彻底改变了序列到序列(seq2seq)学习的任务处理方式,尤其是在自然语言处理(NLP)领域。它通过...

    时间序列Transformer for TimeSeries时序预测算法详解.docx

    在《Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting》这篇NIPS 2019年的论文中,作者Shiyang Li等人提出了一种名为ConvTrans的算法,该算法旨在增强...

    FA6xx LLC transformer design tool_Rev.2.2_E.xlsx

    The result is an example design of transformer. The result is calculated value. Please evaluate enough, if you apply to actual products. The result by this design tool is reference data for design ...

    1506.02025_Spatial Transformer Networks

    new learnable module, the Spatial Transformer, which explicitly allows the spatial manipulation of data within the network. This differentiable module can be inserted into existing convolutional ...

    RTL8019AS原厂开发资料

    The other word, you could floating these pins which you don't use them in 8019AS. 6. The transformer should use Tums Ratio 1:1 with Low Pass Filter. 7. Crystal Specification, please refer to ...

    基于transformer进行船舶轨迹预测Python源码.zip

    基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行...

    tensorflow实现的swin-transformer代码

    Swin Transformer是一种基于Transformer架构的深度学习模型,由卢启程等人在2021年提出,主要用于计算机视觉任务,如图像分类、目标检测和语义分割。它在传统的Transformer架构基础上引入了窗口注意力机制,解决了...

    深度学习-Transformer实战系列课程

    Transformer模型是深度学习领域中的一个重大突破,由Google在2017年提出的《Attention is All You Need》论文中首次介绍。Transformer模型以其创新性的注意力机制(Attention Mechanism)取代了传统的序列依赖模型,...

    The Annotated Transformer.pdf

    Transformer 模型详解 人工智能领域中的Transformer 模型是 Attention 机制的核心组件, recently paper “Attention is All You Need” (Vaswani et al., 2017) 提出了Transformer 模型的详细实现。然而,在实际...

    transformer_pytorch_inCV.rar

    Transformer模型最初由Vaswani等人在2017年的论文《Attention is All You Need》中提出,主要用于自然语言处理任务。然而,随着时间的发展,Transformer的影响力已经超越了NLP领域,逐渐被引入到计算机视觉(CV)中...

    Transformer详解.pptx

    Transformer模型是自然语言处理(NLP)领域的一个里程碑式创新,由Ashish Vaswani等人在2017年提出的论文《Attention is all you need》中首次介绍。它摒弃了传统的循环神经网络(RNN)和长短期记忆网络(LSTM)结构...

    基于keras实现的transformer.zip

    在本项目“基于keras实现的transformer.zip”中,我们将探讨如何使用Keras这一流行的深度学习库来实现Transformer模型,并结合Xception网络结构,提升模型的性能。 Xception网络是Inception系列模型的一种变体,由...

    3.Transformer模型原理详解.pdf

    ### Transformer模型原理详解 #### 一、Transformer简介与背景 Transformer模型是由Google的研究团队于2017年提出的一种革命性的自然语言处理(NLP)架构。该模型在NLP领域产生了深远的影响,不仅因其在机器翻译等...

    Power transformer.rar_Power_transformer_power_power transformer_

    Power_transformer Power transformer

    transformer design

    ### Transformer Design for Off-Line Flyback Converters Using Fairchild Power Switch (FPS) #### Introduction Transformers play a crucial role in the performance of flyback converters, significantly ...

    Swin-Transformer(code and 论文).zip

    Swin-Transformer是一种在计算机视觉领域中广泛应用的深度学习模型,尤其在图像分类、目标检测、语义分割等任务上表现出色。该模型由Pengchao Zhai等人于2021年提出,旨在将Transformer架构的优势引入到卷积神经网络...

    python的基于transformer模型实现机器翻译任务源码+文档说明.zip

    python的基于transformer模型实现机器翻译任务源码+文档说明.zip使用transformer模型实现机器翻译任务,针对中译英的翻译任务 Using Transformer model to do machine translation task focusing on translation ...

Global site tag (gtag.js) - Google Analytics