锁定老帖子 主题:做网站前,考虑网站并发
精华帖 (0) :: 良好帖 (1) :: 新手帖 (0) :: 隐藏帖 (0)
|
|
---|---|
作者 | 正文 |
发表时间:2011-08-15
数据读取缓存技术 ,尽量不要直接和数据库交互。
|
|
返回顶楼 | |
发表时间:2011-08-15
楼主不说话我还以为他是个高手大牛呢?一说话就露馅了,原来是个井底蛙。。
|
|
返回顶楼 | |
发表时间:2011-08-15
你所说的是用户并发 而不是用户操作并发~~一个操作可能引起N次并发
|
|
返回顶楼 | |
发表时间:2011-08-15
blablabla 写道 把我笑喷了,做java都是这种奇葩?。。 。。。。 不恶意中伤 同业者 是程序员基本素养~~ |
|
返回顶楼 | |
发表时间:2011-08-15
张洪财 写道 njyu 写道 每个省份部署一份相当麻烦,貌似都用CDN来搞!
看来需要上网,学习下CDN了。否则都out了。 CDN你学得起也未必用得起,全国分布部署CDN可不是一笔小开支,即便超大型公司也只能对主要产品线进行这种级别的CDN部署,至于部署得少了,CDN也没效果了 |
|
返回顶楼 | |
发表时间:2011-08-15
张洪财 写道 godson_2003 写道 并发是这样计算的么?打开一个网页加载N张图片 N个CSS N个JS 这些算不算并发?
关于包含css和图片应该是服务器内部处理吧,我猜测的 。 如向你说的那样,也太耗费服务器资源了。我数了下新浪首页最少50张图片,那么它一个页面就会产生不低于50的请求.不调优的tomcat稳定支持是200并发,因为maxThreads默认200。 同时4个用户请求(含50张图片+1css 文件的)网页就会出现请求超时,真是比较可怕。还不如用flash 做网站,一个页面就一个flesh 。那么默认tomcat可以支持200用户并发,是html做网页的的50倍。 如果明白的可以讨论下这个问题。 谁说新浪是用tomcat的裸奔的? 静态资源有静态资源的服务器,用tomcat处理静态资源不是乱搞嘛 |
|
返回顶楼 | |
发表时间:2011-08-15
agapple 写道 不要忘了,中国的爬虫访问量也不少,我们公司网站每天上千万的请求都是来自于这些。
一般不会是严格的2-8原则,除此之外你还得考虑高峰期和极限值。 话说1000并发已经很高了,我们每台机器高峰tps在100多,机器load已经有了形状了。所以说1000并发你得需要两位数的机器来抗,再考虑下极限值,机器再翻一番。如果遇上推广或者秒杀的活动你得另外算 前面很多仁兄也提到,一个页面上的ajax,css,img会多增加几倍的并发请求。css,img这些静态资源都好说,CDN,squid或者expire time能挡掉一部分,最后落到apache上。像我们几billion的访问后台也就10来台apache顶住。ajax是个双刃剑,自己掂量着用,也可以利用浏览器的cache等等进行优化,或者就是用后台的异步加载进行优化(http://agapple.iteye.com/blog/918898) 赞一句 ,牛人,一看就感觉是有实际经验的。 网络爬虫的我也深有体会,每天都有大量的搜索引擎上来访问。搜索引擎提供了屏蔽自己搜索的代码,部分高并页面可以不让它访问。 每台机器高峰tps在100多,这个是实践数据还是思考数据?首先和网友解释下TPS(Transaction per second) 。 这个没明白它的瓶颈在哪。 内存? cpu? 硬盘读写?网络? 程序业务逻辑负责? 可用端口数一定没达到。 |
|
返回顶楼 | |
发表时间:2011-08-15
张洪财 写道 agapple 写道 不要忘了,中国的爬虫访问量也不少,我们公司网站每天上千万的请求都是来自于这些。
一般不会是严格的2-8原则,除此之外你还得考虑高峰期和极限值。 话说1000并发已经很高了,我们每台机器高峰tps在100多,机器load已经有了形状了。所以说1000并发你得需要两位数的机器来抗,再考虑下极限值,机器再翻一番。如果遇上推广或者秒杀的活动你得另外算 前面很多仁兄也提到,一个页面上的ajax,css,img会多增加几倍的并发请求。css,img这些静态资源都好说,CDN,squid或者expire time能挡掉一部分,最后落到apache上。像我们几billion的访问后台也就10来台apache顶住。ajax是个双刃剑,自己掂量着用,也可以利用浏览器的cache等等进行优化,或者就是用后台的异步加载进行优化(http://agapple.iteye.com/blog/918898) 赞一句 ,牛人,一看就感觉是有实际经验的。 网络爬虫的我也深有体会,每天都有大量的搜索引擎上来访问。搜索引擎提供了屏蔽自己搜索的代码,部分高并页面可以不让它访问。 每台机器高峰tps在100多,这个是实践数据还是思考数据?首先和网友解释下TPS(Transaction per second) 。 这个没明白它的瓶颈在哪。 内存? cpu? 硬盘读写?网络? 程序业务逻辑负责? 可用端口数一定没达到。 经验数据,针对常见的web页面,普通的响应时间在100ms左右,我们一般单机器承担访问量在300~500w左右。如果是做SOA服务的请求,那tps就可以更高,每天可以承担请求是几kw。 系统会受到很多方面的制约,一般更多的是网络I/O上,大部分还是在数据库DB上,所以你在一些java代码细节上扣的一些性能(比如StringBuilder替代StringBuffer,ReentrantLock替代synchronize原语等等)根本比不上你一次sql优化,少调用一次就是2ms。一般很少应用的瓶颈会是CPU和disk,除非你是一些特殊场景的应用。 |
|
返回顶楼 | |
发表时间:2011-08-15
这个没有搞过,在此学习了。
|
|
返回顶楼 | |
发表时间:2011-08-15
blablabla 写道 把我笑喷了,做java都是这种奇葩?。。 。。。。 楼主虽然表现的比较菜,你也不用说话这么恶毒吧。。。虽然其实我内心也很恶毒。 |
|
返回顶楼 | |