各位je的同僚们,我敢打赌说这几天在javaeye的人可能都和我一样关注这IBM收购sun的这桩案子,但不管是替sun惋惜也好,
还是目光如炬的各位对IBM的种种态度,我们都不管,任他沧海横流?不,我想大家也都会很关心java
的命运,
几年来java为地球轮子的向前滚动立下了可谓的汗马功劳。他在银行的系统中默默地支撑着,Web中也在你我的不经意之间Makes us happy,
可能我们企业中的ERP也是他一针一针的编织起来的......
如今可能就要江山易主!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
然而一场变动的背后也牵动着大家的思绪,生活和工作.....
最起码对有些公司是这样的
Oracle和SAP是两个java的支持者和广泛使用者,同时他们也都面临着IBM这个对手
已经有消息称,由于担心IBM对Java进行控制,甲骨文和SAP可能会弃用Java
大家觉得如果真的是IBM对sun独立收购,Oracle和SAP可能会使用什么开发语言来代替呢?
还是使用竞争对手的语言呢?
java已经很成熟,哪个小孩又可能背着包袱从幕后走向台前,来接替java的重任呢?
.net(好像很夸张), PHP, Python, Ruby.....希望留下你的思绪!
分享到:
- 2009-03-27 22:34
- 浏览 933
- 评论(1)
- 论坛回复 / 浏览 (1 / 1283)
- 查看更多
相关推荐
cnn-bilstm-attention-time-series-prediction_keras-mastercnn-bilstm-attention-time-series-prediction_keras-mastercnn-bilstm-attention-time-series-prediction_keras-mastercnn-bilstm-attention-time-series...
Current unsupervised image-to-image translation techniques struggle to focus their attention on individual objects without altering the background or the way multiple objects interact within a scene....
- Noam Shazeer提出了缩放点积注意力(scaled dot-product attention)、多头注意力(multi-head attention)机制和无参数位置表示(parameter-free position representation)。 - Jakob Uszkoreit提出了用自注意...
标题中的"TCN-with-attention-master_attention_tcn_attention预测_attention-LS"暗示了这是一个关于时序卷积网络(Temporal Convolutional Network, TCN)与注意力机制(Attention Mechanism)结合的项目,其中可能...
标题中的"attention-is-all-you-need-pytorch_pytorch_transformer_attention_"暗示了我们要讨论的是一个基于PyTorch实现的Transformer模型,这是论文《Attention is All You Need》中提出的一种深度学习模型,主要...
标题 "cnn-bilstm-attention-time-series-prediction_keras-master.zip" 暗示了一个使用Keras库实现的深度学习模型,该模型结合了卷积神经网络(CNN)、双向长短时记忆网络(BiLSTM)以及注意力机制(Attention),...
根据给定的信息,本文将详细解析“CPO-TCN-BiGRU-Attention与TCN-BiGRU-Attention在多变量时序预测中的应用”这一主题。 ### 一、核心概念解释 #### 1. **CPO (冠豪猪优化算法)** - **定义**:CPO是一种启发式...
An Attention-Based BiLSTM-CRF Model for Chinese Clinic Named Entity Recognition;基于注意力的 BiLSTM-CRF 模型 中国门诊病历文本命名实体识别
Attention is All You Need 本篇论文的主要贡献在于提出了一种新的序列转导模型架构,称为Transformer,它完全基于自我注意机制,避免了递归和卷积神经网络。这种模型架构可以在机器翻译任务中达到 state-of-the-...
基于卷积神经网络与长短期记忆网络结合注意力机制的多变量时间序列预测(Matlab实现,精准回归与超前预测,注释清晰,附赠测试数据),CNN-LSTM-Attention CNN-BiLSTM-Attention CNN-GRU-Attention 基于卷积神经网络-...
标题"Self-Attention-GAN-Tensorflow-master.zip"表明这是一个使用Tensorflow框架实现的Self-Attention GAN(生成对抗网络)项目。Self-Attention机制是近年来在深度学习领域引入的一种新颖技术,它允许模型在处理...
1.Python实现LSTM-Attention-XGBoost、CNN-LSTM时间序列预测(完整源码和数据) 2.Machine learning :XGboost Regressor Deep learning/Stacked models :GRU、LSTM、CNN、CNN-LSTM、LSTM-Attention Hybrid methods、...
python毕设使用LSTM-Attention-GRU-Attention在Casia库中实现语音情感识别代码+文档说明。含有代码注释,新手也可看懂,个人手打98分项目,导师非常认可的高分项目,毕业设计、期末大作业和课程设计高分必看,下载...
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector 是一种小样本目标检测网络,该网络使用注意力 RPN 和多...
标题中的"TPA-LSTM-master_attention_attention-LSTM_attentionLSTM_TPA-LSTM_"提到了一个与时间序列分析相关的深度学习模型,重点在于“TPA-LSTM”和“attention-LSTM”。这个模型是针对多变量时间序列数据的,利用...
Attention-CNN 注意力机制细腻度图片分类。 ResNet改造
Look-Closer-to-See-Better-Recurrent-Attention-Convolutional-Neural-Network-for-Fine-grained-Image-Recognition
AAU-net An Adaptive Attention U-net for Breast Lesions Segmentation in Ultrasound Images,含有完整的代码和论文