`
tmuffamd
  • 浏览: 28412 次
  • 性别: Icon_minigender_2
  • 来自: 重庆
社区版块
存档分类
最新评论

返回的JSON超长报net::ERR_INCOMPLETE_CHUNKED_ENCODING

 
阅读更多

来源:https://www.cnblogs.com/weiluoyan/p/11772319.html
以下为复制内容:

我们这个项目有个接口因为数据比较多,返回的json串就特别长,你用curl调这个接口,发现返回的json串被截断。

解决:

  • 1、首先查看nginx的error日志,会有报错提示,类似:nginx的目录明下的文件 failed(13: Permission denied) while reading upstream, client:...,server:…
  • 2、看报错提示是没有权限,原因就是nginx存在一个buffer的机制,在数据过大超出缓冲区的 最大容量,会将数据写入临时文件(临时目录),而此时如果你安装的nginx的用户权限不是 服务器权限,就会报没有权限的问题,因为此时没有权限,所以再返回时,超出缓冲区的数据将丢失, 就会出现截断。
  • 3、最后将nginx的目录赋予权限就可以了
  • 4、执行操作: sudo chown -R www:root nginx目录名称 chmod -R 764 /usr/local/nginx/临时目录名称

 

补充:
对于来自fastcgi server的response,nginx将其缓冲到内存中,然后依次发送到客户端浏览器,缓冲区的大小由fastcgi_buffers和fasecgi_buffer_size两个值控制,比如一下配置:fastcgi_buffer 8 128;此处代表nginx设置8个128k的块进行缓存,总共大小是8*128k 

fastcgi_buffer_size 128k; 此处代表每块大小,用于指定读取fastcgi应答第一部分需要用 多大的缓冲区,这个值表示将使用1个128kb的缓冲区读取应答的一部分(应答头),可以设置 为fastcgi_buffers选项指定的缓冲区大小。

fastcgi_buffers : 指定本地需要用多少和多大的缓冲区来缓冲FastCGI的应答请求。如果一个PHP脚本所产生的页面大小为256KB,那么会为其分配4个64KB的缓冲区来缓存; 如果页面大小大于256KB,那么大于256KB的部分会缓存到fastcgi_temp指定的路径中, 但是这并不是好方法,因为内存中的数据处理速度要快于硬盘。一般这个值应该为站点中PHP脚本 所产生的页面大小的中间值,如果站点大部分脚本所产生的页面大小为256KB,那么可以把这个值 设置为“16 16k”、“4 64k”等。

 

所以总计能创建的最大内存缓冲区大小是 464K+64K = 320k。而这些缓冲区是根据实际的 Response 大小动态生成的,并不是一次性创建的。比如一个 128K 的页面,Nginx 会创建 264K 共 2 个 buffers。

 

当 Response 小于等于 320k 时,所有数据当然全部在内存中处理。如果 Response 大于 320k 呢? fastcgi_temp 的作用就在于此。多出来的数据会被临时写入到文件中,放在这个目录下面。

 

内存中缓冲了 320K,剩下的会写入的文件中。而实际的情况是,运行 Nginx Process 的用户并没有fastcgi_temp 目录的写权限,于是剩下的数据就丢失掉了。


以上就是对自己遇到的一个问题做了一个总结。

以下为原创内容:
在实战中遇到的问题并没有通过修改nginx配置文件解决,加了相关配置依然会有同样的问题,然后修改了acgw的临时目录 proxy_temp 的权限才将问题解决:

 

 

在这里插入图片描述

本来是nobody:acsgrp 改成了acgw:acsgrp 

 

 

 

原因:nginx对于小的反向代理请求是使用内存作中转,对于稍微大一点的,是使用临时文件系统来做中转的,临时文件目录/usr/local/nginx/proxy_temp,而对这个目录没有读写权限,导致数据不全。

 

解决:然后让运维看了下nginx的日志和目录权限,发现确实如此,给临时文件目录加上读写权限,搞定。

 

来源:https://blog.csdn.net/njfangju/article/details/106772846

 

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics