阅读更多

1顶
0踩

Web前端

原创新闻 微软发布 Silverlight 5.1 正式版

2012-05-10 09:38 by 正式编辑 nemohq 评论(0) 有4128人浏览
距离 Silverlight 5 正式发布近半年时间后,微软近日推出了其升级版本Silverlight 5.1(版本号为:5.1.10411.0)。


Silverlight 5系列在用户界面内可以实现更流畅的动画效果,改进了字体渲染清晰度,支持Postscript矢量打印,改进了XAML解析性能,支持64位操作系统,在 IE9的无窗口模式下可以启动硬件加速,提供了GPU加速的3D API等。

此次发布的5.1版本继承了以上优秀性能,并修复了之前版本中存在的一些Bug,主要包括:

  • 修复了Silverlight中存在的一个安全问题。
  • 修复了Silverlight中DRM数字版权管理问题。
  • 修复了OOB应用程序升级时提升权限报错的问题。
  • 修复了用户从Silverlight 4升级到Silverlight 5时,无法获取证书验证的问题。
  • 修复了当使用特定字符组合时,Silverlight应用程序崩溃的问题。
  • 修复了Silverlight输入编辑器异常关闭的问题。当将焦点移动到ItemsControl之后,再将焦点移动到TextBox或RichTextBox上时会出现此问题。
  • 修复了Silverlight无法显示受输出保护限制的内容的问题。
详细信息Silverlight 5 Build 5.1.10411.0 Released

下载地址http://www.microsoft.com/getsilverlight/get-started/install/default.aspx

  • 大小: 15.5 KB
  • 大小: 9.1 KB
1
0
评论 共 0 条 请登录后发表评论

发表评论

您还没有登录,请您登录后再发表评论

相关推荐

  • LSTM层注释,东西全在帖子里

    这个是我自用的caffe latm层注释备份,别下载,注释都在我的帖子里了,那个不要钱。不想用网盘了,试试这个功能。嘿嘿

  • caffe lstm

    本文官方链接https://www.cnblogs.com/yanghailin/p/15603194.html,未经授权勿转载 理解 LSTM 网络 https://www.jianshu.com/p/9dc9f41f0b29 Understanding LSTM Networks https://colah.github.io/posts/2015-08-Understanding-LSTM...

  • 理解LSTM网络

    英文原地址:http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 中文原地址:http://www.jianshu.com/p/9dc9f41f0b29 Recurrent Neural Networks 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理

  • (Caffe)LSTM层分析

    本文地址:http://blog.csdn.net/mounty_fsc/article/details/ 本部分剖析Caffe中Net::Forward()函数,即前向计算过程。从LeNet网络角度出发,且调式网络为测试网络(区别为训练网络),具体网络层信息见(Caffe,LeNet)初始化测试网络(四) 1 相关问题 Long-term recurrent convolutional

  • 探索Caffe-LSTM:深度学习中的序列建模神器

    探索Caffe-LSTM:深度学习中的序列建模神器 去发现同类优质开源项目:https://gitcode.com/ 项目简介 是一个基于Caffe框架扩展的项目,它引入了长短期记忆网络(LSTM)的支持,为处理序列数据提供了强大的工具。Caffe原本是一个高效的深度学习框架,主要应用于计算机视觉任务,而Caffe-LSTM的出现则拓宽了其在时间序列预测和自然语言处理等领域的应用。 技术分析 Ca...

  • cpp-基于caffe的LSTMOCR案例

    基于caffe的LSTM OCR案例,能够利用该案例完成序列的识别,包括验证码、车牌、身份证号码、地址等长序列动长的内容识别

  • lstm_lm_iter_110000.caffemodel

    这是用https://blog.csdn.net/mounty_fsc/article/details/53114698所介绍的LSTM语言模型小实验训练出来的模型结果,原文博客在https://github.com/jeffdonahue/caffe/blob/recurrent/examples/coco_caption/Caffe language model.ipynb

  • caffe的LSTM层实现与解析(非官方版)

    最近看CTPN的论文时看到了demo中实现的LSTM层,这和caffe官方的基于recurrent层的不一样,是独立的。我对它做了一些注解,在这里贴出来方便以后查看。 #include #include "caffe/blob.hpp" #include "caffe/common.hpp" #include "caffe/filler.hpp" #include "caffe/layer.

  • windows版caffe添加LSTM模块

    一、检查缺少的文件: windows下的caffe缺少了以下文件: 在include/caffe/layers文件中缺少: lstm_layer.hpp parameter_layer.hpp recurrent_layer.hpp rnn_layer.hpp 在src/caffe/layers文件中缺少: lstm_layer.cpp lstm_unit_layer.cpp ...

  • 深度学习笔记(1):caffe 添加新层 attention LSTM layer和LSTM layer代码精读

    深度学习笔记(1):caffe 添加新层 attention LSTM layer和LSTM layer代码精读

  • Caffe2:使用Caffe构建LSTM网络

    前言: 一般所称的LSTM网络全叫全了应该是使用LSTM单元的RNN网络。 原文:(Caffe)LSTM层分析 入门篇:理解LSTM网络 LSTM的官方简介: http://deeplearning.net/tutorial/lstm.html#id1 GitHub...

  • caffe各个层初探(一综述)

    一开始先把总的层都给罗列出来,有一个整体的印象 Data layers Vision layers Recurret layers Common layers Normalization layers Activaction/Neuron layers Utility layers Loss layers 接下来简要叙述,各层主要功能,后面分类讲述。 Data layers  ...

  • Caffe2新增RNN支持

    Caffe2新增RNN支持

  • Caffe LSTM 实现mnist识别

    基础理解   假如 Caffe训练网络的网络结果如下所示:  相关术语及变量维度关系 N为LSTM同时处理的独立流的个数(Batch size),在该实验中为输入LSTM相互独立的视频的个数,以该实验测试网络为例,本文取T=3。 T为LSTM网络层处理的时间步总数(LSTM的时间步,即循环次数),在该实验中为输入LSTM的任意一独立视频的视频帧个数,以该实验测试网络为例,本文...

  • 系统学习深度学习(六) --LSTM总结

    转自:http://blog.csdn.net/shincling/article/details/49362161 1. 概念: Long short-termmemory (LSTM)is a recurrent neuralnetwork (RNN)architecture (an artificialneural network)published[1] in 1997 b

  • lstm-forecast-最经典案例

    # -*- coding: utf-8 -*- """ Created on 2019/5/21 23:32 @Author: Johnson @Email:593956670@qq.com @File: LSTM_forecast.py """ # -*- coding: utf-8 -*- import numpy as np import matplotlib.pyplot as plt ...

  • LSTM CTC ocr

    参考资料:1.linux下: https://github.com/fendaq/Caffe-OCR2.windows下: https://github.com/senlinuc/caffe_ocr3.LSTM C++ : https://github.com/dlunion/CaffeLSTM-OCR4. warp CTC :   https://github.com/kasyoukin/caf...

  • caffe中如何实现rnn的结构

    rnn结构的特点是,上一次的forward的输出会作为这次forward的输入,这种反馈结构在目前的layer设计要体现,同时rnn也存在很多变种,内部结构多种多样,比如GRU LSTM如何在保证反馈结构的同时,容许更加容易的实现内部结构?caffe中使用net去代替了layer,因为net内部又能用layer表述更加细致的结构变化,在net层面上实现反馈的输入即可,因此源码设计上,Recurre...

  • 详细解读简单的lstm的实例

    http://blog.csdn.net/zjm750617105/article/details/51321889 本文是初学keras这两天来,自己仿照addition_rnn.py,写的一个实例,数据处理稍微有些不同,但是准确性相比addition_rnn.py 差一点,下面直接贴代码,解释和注释都在代码里边。 [python] view plain copy     <s...

  • caffe c++ 接口

    Caffe使用教程 初始化网络 #include "caffe/caffe.hpp" #include #include using namespace caffe; char *proto = "H:\\Models\\Caffe\\deploy.prototxt"; /* 加载CaffeNet的配置 */ Phase phase = TEST; /* or TRAIN */ Caff

Global site tag (gtag.js) - Google Analytics