阅读更多

13顶
1踩

Web前端

WebBeans(JSR-299) 草案最终版本现在已经发布了。Web Beans 定义了一些Java EE环境中的服务,使用这些服务可以简化程序的开发。


JSR 299 是 Java EE 6 中非常重要的部分,提供了如下功能:

1. 类型安全的依赖注入
2. 注入对象的上下文生存周期管理
3. 事件提醒模型
4. 绑定拦截器通过用户自定义的注解(Annotation)
5. 类型安全的装饰器
6. 为整合第三方框架提供了完整的 SPI 支持
7. 与 JSF,Servlet / JSP 进行了整合
8. 对 JSF 提供长会话(Conversation)上下文支持


Web Beans公共草案可以通过如下链接查看(PDF):
JSR-299-FD.pdf  (JSR-299-FD-EVAL.pdf, 494 KiB, application/pdf)

Weld 是一个实现了 JSR-299 的框架。不久前,Weld 1.0.0正式版也发布了!

 

点击查看Weld 1.0.0发布文档:https://jira.jboss.org/jira/secure/ReleaseNote.jspa?projectId=12310891&styleName=Html&version=12314092

下载地址:https://sourceforge.net/projects/jboss/files/Weld/1.0.0/weld-1.0.0.zip/download

来自: in.relation.to/
13
1
评论 共 6 条 请登录后发表评论
6 楼 gstarwd 2010-02-13 10:53
angin 写道
java现在是注释泛滥,有时候注释比代码还多,整个一本末倒置

你跟本不懂构架 在这装*
5 楼 angin 2009-11-16 11:32
java现在是注释泛滥,有时候注释比代码还多,整个一本末倒置
4 楼 condeywadl 2009-11-16 09:19
太厉害了
3 楼 whaosoft 2009-11-15 22:17
 
2 楼 berlou 2009-11-15 12:23
GK真的很厉害。 这基本上又是Seam的标准, 继Hibernate之后又一个他的标准。
1 楼 打倒小日本 2009-11-15 00:28
期待Seam 3.0

发表评论

您还没有登录,请您登录后再发表评论

相关推荐

  • 网页自动点击搜索

    网页自动点击软件目录下有一个webapp.xml,使用时可以修改该配置来模拟网页自动点击功能 autoclick 的属性 enable表示启用还是禁用自动点击 autoclick 的属性 timeout 每隔多少秒,切换下一个website autoclick 的属性 loop表示循环次数,小于0表示无限循环,0表示不循环,只模拟点击一轮 每个站点用一个website表示,下面可以配多个keyvalue,每个key value表示搜索key,然后点击搜索结果中的value连接,比如: 表示在百度上搜索google 然后在google的结果网页中查找谷歌这个关键字的连接,然后点击它。 这里的key和value可以只填其中一个, 如果只填key值 而value为空,表示只模拟一次搜索 如果只天value 而key为空,表示只模拟一次点击 webapp.exe 还注册了一个热键,可以方便查看网页源文件,热键是ALT+F 有需要的朋友,可以拿去试试

  • 简易的Web自动化链接测试(Xenu)

    1、理解链接需要测试的测试点: 【1】 要测试的链接页面是否存在 【2】 确定存在链接页面,然后就考虑跳转后的页面是不是对应需求的页面【3】 保证Web系统上没有孤立的页面(没有链接指向该页面) 2、需要用到的自动化工具Xenu Xenu有一定的局限性:只能测试链接存不存在,无法验证链接的正确性(意思是说只要能够跳转,即...

  • Web 扫描神器:WhatWeb 保姆级教程(附链接)

    分析网站架构(一):WhatWeb 工具

  • 一个可以搜索页面内超链接的HTML页面

    页面效果如上,含有标题,搜索框和一些超链接,在搜索框输入一些文字可以在下方显示含有这些文字的超链接。这里的搜索不仅可以中文,还可以是英文,数字。

  • URL到显示网页最详细的所有步骤,含浏览器请求资源的所有可能情况

    ·先在地址栏输入url浏览器判断是否为地址(关键词则搜索) ·浏览器吊起beforeUnload钩子,等待当前页面处理完毕 ·域名解析 [1]判断是否有缓存记录该地址对应的ip地址(近期访问过) [2]如果没有则查找本地host是否有记载(就是那个host文件) [3]如果都没有去访问DNS服务器询问ip地址 ·与主机连接【这里有好几种情况】 第一种情况:就是我要访问的浏览地址 [1]「http协议相关」是否握手连接(...

  • 怎么查看一个页面有多少链接

    怎么查看一个页面有多少链接? 用google或360浏览器打开网站,按F12打开控制台工具,切换到console选项卡,如下图输入如下代码 标题 for(i=0;i<=$("a").length;i++){console.log($("a")[i].href)} 按回车键,控制台会显示出这个页面的所有链接。 本人亲测有效。 ...

  • 一个网页自动查询的工具

    帮公司同事做的一个小工具,从excel里面读取数据,然后自动填到网页上面去查询。

  • 从搜索引擎或者具体网页上提取链接

    [软件功能]: 本软件用于从搜索引擎或者具体网页上提取链接,主要用途是搜索留言本、论坛、blog等地址 通过您设定的关键词 软件自动在搜索引擎结果里提取符合条件的连接 本软件把超链接分为两部分看待:连接和连接名称 通过对这两部分的设定来提取符合要求的连接 可以设定只提取含有某“特征词”的网址 也可以设定过滤含有某“特征词”的网址(针对链接) 可以设定只提取链接名称含有某“特征词”的网址 也可以设定过滤链接名称含有某“特征词”的网址(针对链接名称) 提取搜索结果是一门技术,需要一定的电脑和网络基础,本软件是为懂电脑和网络的人设计的 本软件是免费软件,不对外提供服务(本人的全系列客户除外) [参数说明]: 本软使用的关键在于正确设置各项参数,参数设置对了,链接也就提出来了 关键词或网址:如果从搜索引擎里提取 就填写关键词 比如 签写留言(提取留言本) 、Powered by Discuz(提取discuz类型的论坛) 如果是从某页面提取 就填写完整的网址 比如 http://club.sohu.com/map/club_map.htm 链接必含词汇: 就是规定提出来的链接必须含有什么词汇 比如提取留言本 就可以设定 wbook.asp、gb_sign.asp、upfile.asp、feedback.asp 这些常用的留言本文件名称 也可以留空,表示所有的网址都要 链接排除词汇:如果你不希望提取的网址含有某个词汇 就写上 这个一般不要动,不要修改默认的,更不能留空 链连名称必含: 就是提取连接时,链接名称里面必须含有的词汇 这个一般不要动,留空即可 链连名称排除: 就是提取连接时,链接名称里面不能含有的词汇 这个一般不要动,不要修改默认的,更不能留空 间隔或者限时:因为google禁止连续不停的快速搜索,所以本软件对百度和google采用不同的方式提取 对百度是连续性的 对google是固定间隔时间的不断提取 限时: 处理某一个页面允许的最长时间 超过限时就刷新重试 (针对百度) 间隔: 隔多久提取下一页(针对google,默认15秒,尽量不要修改) 过滤相似: 这个参数对应着搜索引擎的两种搜索模式,一般都要选上它,不熟悉搜索引擎的不要改 设置好各项参数后点击<提取>按钮即可,软件开始提取, 软件左下角会显示进度,提取完了会显示提取完毕 举例说明: 一、如果想从搜索引擎里提取某些网址 A.比如想提取一些留言本地址 首先 选择要用的搜索引擎(百度或者google) 然后输入关键字“签写留言” --如要教育类的留言本,就输“签写留言 教育” --如不要带验证码的就输“签写留言 教育 -验证码” 关键词选择学问很大,需仔细琢磨 其次选择链接必含词汇 --词汇那儿可以不填,这样可以提取出所有类型的留言本 --如果需要某一类型的留言本,就填上该类型的留言本地址中都有的词汇 比如 "write.asp"、"upfile.asp"、"leaveword.asp"、"add.asp"等等 其它参数可以不动 最后点<提取>按钮。软件就开始搜索,并不断把搜索到的相关网址添加到左边列 同时列表下方会显示提取了多少页,直到全部页面提取完毕。 B.比如想提取一些动网论坛地址 请先选择要用的搜索引擎(百度和google),然后输入关键字“Powered By Dvbbs”。 因为大多数论坛地址都含有“bbs”,所以你可以设定"bbs"为必含词汇,也可以不输入 其它参数可以不动。 直接点<提取>按钮。软件就开始搜索,并不断把搜索到的相关网址添加到左边列表里 同时列表下方会显示提取了多少页,直到全部页面提取完毕。 二、如果想从某具体网页上提取某些网址 请先输入该网页完整的具体网址 然后输入要提取的网址里面必含词汇,也可以输入排除词汇 然后点提取即可把你想要的网址一次性提出来。 比如想要搜狐论坛列表 http://club.sohu.com/map/club_map.htm 里的所有论坛栏目地址 首先输入网址 http://club.sohu.com/map/club_map.htm 我们可以发现该页面上论坛栏目地址都含有list这个词,所以把“list”作为必含词汇 然后点<提取>按钮,就可以把所有的搜狐论坛栏目地址都提出来了 注意事项: a.如果想提取全部网址,只需把必含词汇设为“http”或者留空 b.用不同特征词从搜索引擎提取某一类网址时,链接排除词汇的设定可以避免重复提取 c.一般情况下不要改动排除词汇的设定,默认设置不影响正常提取

  • 搜索通(可自定义多网页搜索工具)

    搜索通 可以自定义 10个搜索引擎 方便网络监控 不失为免费的舆情监控小软件

  • html中的搜索代码,Web自动化(3):网页自动搜索功能

    unsplash.jpg写在前面如果我们需要在期刊中搜索我们想要找的文章,那么我们如何才能达到这个目的。我们首先看一下,手动和自动对比图:网页搜索.png其实内容全部一样,我们只是用自动化程序,来代替我们手动操作。1. 创建webdriver驱动对象,驱动打开网页# 导入包from selenium import webdriver# 创建驱动对象,调用get方法并打开网页wd = webdriv...

  • 小白都能看懂的简单爬虫入门案例剖析(爬虫入门看它就够了!)

    目录 什么是网络爬虫? 爬虫的原理是什么? 1、获取百度图片中“皮卡丘图片”的网页链接 2、获取该网页的全部代码 3、查找代码中图片的链接 4、根据图片链接写出通用的正则表达式 5、通过设定的正则表达式匹配代码中所有符合要求的图片链接 6、逐个打开图片链接并将图片下载 Hello!大家好,我是努力赚钱买生发水的灰小猿,很多学习了Python的小伙伴都希望可以拥有一条属于自己的爬虫,所以今天大灰狼就来和小伙伴们分享一下简单的爬虫程序编写。 允许我在这里为小伙伴们卖一下关子哈。 什么.

  • 如何快速查找网页的内容

    打开网页后,待网页完全加载完毕,确保当前浏览器窗口处于选中状态下。按下键盘上的“ctrl”+“F”(其中“F”就是字母F),此时我们会发现在页面顶部弹出来一个搜索框(图中红色箭头所指区域) ...

  • 在页面上查找所有链接

    这是蜘蛛背后的基本原理。 $html = file_get_contents('http://www.example.com'); $dom = new DOMDocument(); @$dom-&gt;loadHTML($html); // grab all the on the page $xpath = new DOMXPath($dom); $hrefs = $xpath-&gt;...

Global site tag (gtag.js) - Google Analytics