(TR1008) Transformer couldn't read the connectino information for database[LiYunpeng_Test] from COGNOS.INI,from Cognos Impomptu Query Definition(IQD) Runtime Gateway location,or from IQD file.
这个问题让我找了好久,关键就是最开始没明白解决问题的字符串是什么意思,最后终于解决了,废话不多
http://www-01.ibm.com/support/docview.wss?rs=0&q1=tr1008&uid=swg21341980&loc=en_US&cs=utf-8&cc=us&lang=en
这是IBM官方给的答案
我遇到的也许只是很多种可能中的一种
答案说要在Cognos安装目录下找到COGNOS.INI,然后在后面添加一个字符串,最开始不知道这个字符串是从哪里来的,后来找了一些相关资料知道
添加以下
[Databases]
GOS=;LOCAL;OD;DSN=GOScer1@ASYNC=0@0/0
这个是示例,而这个字符串其实就是通过 Cognos Portal门户中建立的数据源连接时给的字符串
而最前面的就是门户中创建数据源的名字
这样拼接起来追加到COGNOS.INI文件最后面就可以了
而还有一点要注意的就是,其实不同版本的Cognos其实文件名叫的不一样,我这目前只有Cognos8.3,然后我找了好半天COGNOS.INI,没找到,后来查资料原来,在这个版本中叫cs7g.ini这个文件,搜索以下就可以搜到,好了这也算是笔记了,分享一下
- 大小: 12.9 KB
分享到:
相关推荐
整了两个小时,终于弄明白了这个问题,共享一下。。。。
tranformer,self-attention,multi-attention
Transformer模型是深度学习领域中的一种先进架构,最初在2017年的论文《Attention is All You Need》中提出。这个模型彻底改变了序列到序列(seq2seq)学习的任务处理方式,尤其是在自然语言处理(NLP)领域。它通过...
在《Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting》这篇NIPS 2019年的论文中,作者Shiyang Li等人提出了一种名为ConvTrans的算法,该算法旨在增强...
The result is an example design of transformer. The result is calculated value. Please evaluate enough, if you apply to actual products. The result by this design tool is reference data for design ...
new learnable module, the Spatial Transformer, which explicitly allows the spatial manipulation of data within the network. This differentiable module can be inserted into existing convolutional ...
基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行船舶轨迹预测Python源码.zip基于transformer进行...
The other word, you could floating these pins which you don't use them in 8019AS. 6. The transformer should use Tums Ratio 1:1 with Low Pass Filter. 7. Crystal Specification, please refer to ...
Transformer模型是深度学习领域中的一个重大突破,由Google在2017年提出的《Attention is All You Need》论文中首次介绍。Transformer模型以其创新性的注意力机制(Attention Mechanism)取代了传统的序列依赖模型,...
Transformer 模型详解 人工智能领域中的Transformer 模型是 Attention 机制的核心组件, recently paper “Attention is All You Need” (Vaswani et al., 2017) 提出了Transformer 模型的详细实现。然而,在实际...
Transformer模型最初由Vaswani等人在2017年的论文《Attention is All You Need》中提出,主要用于自然语言处理任务。然而,随着时间的发展,Transformer的影响力已经超越了NLP领域,逐渐被引入到计算机视觉(CV)中...
Transformer模型是自然语言处理(NLP)领域的一个里程碑式创新,由Ashish Vaswani等人在2017年提出的论文《Attention is all you need》中首次介绍。它摒弃了传统的循环神经网络(RNN)和长短期记忆网络(LSTM)结构...
Swin Transformer是一种基于Transformer架构的深度学习模型,由卢启程等人在2021年提出,主要用于计算机视觉任务,如图像分类、目标检测和语义分割。它在传统的Transformer架构基础上引入了窗口注意力机制,解决了...
在本项目“基于keras实现的transformer.zip”中,我们将探讨如何使用Keras这一流行的深度学习库来实现Transformer模型,并结合Xception网络结构,提升模型的性能。 Xception网络是Inception系列模型的一种变体,由...
### Transformer模型原理详解 #### 一、Transformer简介与背景 Transformer模型是由Google的研究团队于2017年提出的一种革命性的自然语言处理(NLP)架构。该模型在NLP领域产生了深远的影响,不仅因其在机器翻译等...
Power_transformer Power transformer
### Transformer Design for Off-Line Flyback Converters Using Fairchild Power Switch (FPS) #### Introduction Transformers play a crucial role in the performance of flyback converters, significantly ...
**基于Transformer的OCR识别技术详解** OCR(Optical Character Recognition,光学字符识别)技术是一种将图像中的文字转换为可编辑文本的技术。随着深度学习的发展,尤其是Transformer模型的提出,OCR领域的性能...
Swin-Transformer是一种在计算机视觉领域中广泛应用的深度学习模型,尤其在图像分类、目标检测、语义分割等任务上表现出色。该模型由Pengchao Zhai等人于2021年提出,旨在将Transformer架构的优势引入到卷积神经网络...