各位je的同僚们,我敢打赌说这几天在javaeye的人可能都和我一样关注这IBM收购sun的这桩案子,但不管是替sun惋惜也好,
还是目光如炬的各位对IBM的种种态度,我们都不管,任他沧海横流?不,我想大家也都会很关心java 的命运,
几年来java为地球轮子的向前滚动立下了可谓的汗马功劳。他在银行的系统中默默地支撑着,Web中也在你我的不经意之间Makes us happy,
可能我们企业中的ERP也是他一针一针的编织起来的......
如今可能就要江山易主!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
然而一场变动的背后也牵动着大家的思绪,生活和工作.....
最起码对有些公司是这样的
Oracle和SAP是两个java的支持者和广泛使用者,同时他们也都面临着IBM这个对手
已经有消息称,由于担心IBM对Java进行控制,甲骨文和SAP可能会弃用Java
大家觉得如果真的是IBM对sun独立收购,Oracle和SAP可能会使用什么开发语言来代替呢?
还是使用竞争对手的语言呢?
java已经很成熟,哪个小孩又可能背着包袱从幕后走向台前,来接替java的重任呢?
.net(好像很夸张), PHP, Python, Ruby.....希望留下你的思绪!
分享到:
- 2009-03-27 22:34
- 浏览 924
- 评论(1)
- 论坛回复 / 浏览 (1 / 1275)
- 查看更多
相关推荐
cnn-bilstm-attention-time-series-prediction_keras-mastercnn-bilstm-attention-time-series-prediction_keras-mastercnn-bilstm-attention-time-series-prediction_keras-mastercnn-bilstm-attention-time-series...
Current unsupervised image-to-image translation techniques struggle to focus their attention on individual objects without altering the background or the way multiple objects interact within a scene....
标题中的"attention-is-all-you-need-pytorch_pytorch_transformer_attention_"暗示了我们要讨论的是一个基于PyTorch实现的Transformer模型,这是论文《Attention is All You Need》中提出的一种深度学习模型,主要...
标题中的"TCN-with-attention-master_attention_tcn_attention预测_attention-LS"暗示了这是一个关于时序卷积网络(Temporal Convolutional Network, TCN)与注意力机制(Attention Mechanism)结合的项目,其中可能...
- Noam Shazeer提出了缩放点积注意力(scaled dot-product attention)、多头注意力(multi-head attention)机制和无参数位置表示(parameter-free position representation)。 - Jakob Uszkoreit提出了用自注意...
标题 "cnn-bilstm-attention-time-series-prediction_keras-master.zip" 暗示了一个使用Keras库实现的深度学习模型,该模型结合了卷积神经网络(CNN)、双向长短时记忆网络(BiLSTM)以及注意力机制(Attention),...
An Attention-Based BiLSTM-CRF Model for Chinese Clinic Named Entity Recognition;基于注意力的 BiLSTM-CRF 模型 中国门诊病历文本命名实体识别
标题"Self-Attention-GAN-Tensorflow-master.zip"表明这是一个使用Tensorflow框架实现的Self-Attention GAN(生成对抗网络)项目。Self-Attention机制是近年来在深度学习领域引入的一种新颖技术,它允许模型在处理...
python毕设使用LSTM-Attention-GRU-Attention在Casia库中实现语音情感识别代码+文档说明。含有代码注释,新手也可看懂,个人手打98分项目,导师非常认可的高分项目,毕业设计、期末大作业和课程设计高分必看,下载...
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector 是一种小样本目标检测网络,该网络使用注意力 RPN 和多...
标题中的"TPA-LSTM-master_attention_attention-LSTM_attentionLSTM_TPA-LSTM_"提到了一个与时间序列分析相关的深度学习模型,重点在于“TPA-LSTM”和“attention-LSTM”。这个模型是针对多变量时间序列数据的,利用...
Attention-CNN 注意力机制细腻度图片分类。 ResNet改造
Look-Closer-to-See-Better-Recurrent-Attention-Convolutional-Neural-Network-for-Fine-grained-Image-Recognition
《PyPI上的Keras CV Attention Models库详解》 在Python的深度学习领域,Keras库以其易用性和灵活性深受开发者喜爱。而Keras CV Attention Models是Keras的一个扩展,专为计算机视觉(CV)任务提供了丰富的注意力...
根据给定的信息,本文将详细解析“CPO-TCN-BiGRU-Attention与TCN-BiGRU-Attention在多变量时序预测中的应用”这一主题。 ### 一、核心概念解释 #### 1. **CPO (冠豪猪优化算法)** - **定义**:CPO是一种启发式...
标题“Attention-is-all-you-need-data”所指的是一份与Transformer模型相关的训练数据集,这个数据集来源于著名的论文《Attention is All You Need》。这篇论文由Google Brain团队于2017年发布,颠覆了传统的序列...
标题 "attention-is-all-you-need-pytorch-zhushi-代码注释" 指向的是一个关于PyTorch实现的Transformer模型的源代码,其中包含了详细的中文注释。Transformer模型是2017年Vaswani等人在论文《Attention is All You ...
pytorch U-Net,R2U-Net,Attention U-Net,Attention R2U-Net的实现 U-Net:用于生物医学图像分割的卷积网络 基于U-Net(R2U-Net)的递归残积卷积神经网络用于医学图像分割 注意U-Net:学习在哪里寻找胰腺 ...