`
bwhzhl
  • 浏览: 102784 次
  • 性别: Icon_minigender_1
  • 来自: 武汉
社区版块
存档分类
最新评论

内核参数调优

 
阅读更多

内核:

net.ipv4.conf.lo.arp_ignore=1

net.ipv4.conf.lo.arp_announce=2

net.ipv4.conf.all.arp_ignore=1

net.ipv4.conf.all.arp_announce=2

 

net.core.rmem_default = 65535

net.core.rmem_max = 8388608

net.ipv4.tcp_rmem = 4096 87380 8388608

net.core.wmem_default = 65535

net.core.wmem_max = 8388608

net.ipv4.tcp_wmem = 4096 65535 8388608

net.ipv4.tcp_mem = 8388608 8388608 8388608

net.core.optmem_max = 40960

net.ipv4.tcp_max_syn_backlog = 8192

net.ipv4.tcp_max_tw_buckets = 360000

net.ipv4.tcp_keepalive_time = 1800

 

net.ipv4.tcp_tw_reuse = 1

net.ipv4.tcp_tw_recycle = 1

 

這是我們的 /etc/sysctl.conf 的設定

 

kernel.sysrq = 0

kernel.core_uses_pid = 1

kernel.msgmnb = 65536

kernel.msgmax = 65536

kernel.shmmax = 68719476736

kernel.shmall = 4294967296

net.ipv4.ip_forward = 1

net.ipv4.conf.default.rp_filter = 1

net.ipv4.conf.default.accept_source_route = 0

net.ipv4.tcp_syncookies = 1

net.ipv4.tcp_synack_retries = 3

net.ipv4.tcp_syn_retries = 3

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2

net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2

net.ipv4.tcp_wmem = 4096 65535 8388608

net.ipv4.tcp_mem = 8388608 8388608 8388608

net.core.optmem_max = 40960

net.ipv4.tcp_max_syn_backlog = 8192

net.ipv4.tcp_max_tw_buckets = 8000

net.ipv4.tcp_keepalive_time = 1200

net.ipv4.tcp_fin_timeout = 30

net.ipv4.tcp_tw_reuse = 1

net.ipv4.tcp_tw_recycle = 1

net.ipv4.ip_local_port_range = 8200 65000

 

 

#sed -i 's#net.ipv4.ip_forward = 0#net.ipv4.ip_forward = 1#g' /etc/sysctl.conf

sysctl  -p

 

====================================================

openfile:

然後 /etc/security/limits.conf  我有設定

 

*                -       nofile          65535

*                soft    nofile          51200

*                hard    nofile          51200

 

vi /etc/rc.local

echo "ulimit -SHn 51200" >>/etc/rc.local

 

 

 

echo "*                -       nofile           65535" >>/etc/security/limits.conf

echo "*                soft    nofile          102400" >>/etc/security/limits.conf

echo "*                hard    nofile          102400" >>/etc/security/limits.conf

 

=============================================

###################

所有 rfc 相关的选项都是默认启用的,因此网上的那些还自己写 rfc 支持的都可以扔掉了 :)

###############################

net.inet.ip.sourceroute=0

net.inet.ip.accept_sourceroute=0

#############################

通过源路由,攻击者可以尝试到达内部 IP 地址 -- 包括 RFC1918 中的地址,所以

不接受源路由信息包可以防止你的内部网络被探测。

#################################

net.inet.tcp.drop_synfin=1

###################################

安全参数,编译内核的时候加了 options TCP_DROP_SYNFIN 才可以用,可以阻止某些 OS 探测。

##################################

kern.maxvnodes=8446

#################http://www.bsdlover.cn#########

vnode 是对文件或目录的一种内部表达。 因此, 增加可以被操作系统利用的 vnode 数量将降低磁盘的 I/O

一般而言, 这是由操作系统自行完成的,也不需要加以修改。但在某些时候磁盘 I/O 会成为瓶颈,

而系统的 vnode 不足, 则这一配置应被增加。此时需要考虑是非活跃和空闲内存的数量。

要查看当前在用的 vnode 数量:

# sysctl vfs.numvnodes

vfs.numvnodes: 91349

要查看最大可用的 vnode 数量:

# sysctl kern.maxvnodes

kern.maxvnodes: 100000

如果当前的 vnode 用量接近最大值,则将 kern.maxvnodes 值增大 1,000 可能是个好主意。

您应继续查看 vfs.numvnodes 的数值, 如果它再次攀升到接近最大值的程度,

仍需继续提高 kern.maxvnodes top(1) 中显示的内存用量应有显著变化,

更多内存会处于活跃 (active) 状态。

####################################

kern.maxproc: 964

#################http://www.bsdlover.cn#########

Maximum number of processes

####################################

kern.maxprocperuid: 867

#################http://www.bsdlover.cn#########

Maximum processes allowed per userid

####################################

因为我的 maxusers 设置的是 256 20+16*maxusers 4116

maxprocperuid 至少要比 maxproc 1 ,因为 init(8) 这个系统程序绝对要保持在运作状态。

我给它设置的 2068

kern.maxfiles: 1928

#################http://www.bsdlover.cn#########

系统中支持最多同时开启的文件数量,如果你在运行数据库或大的很吃描述符的进程,那么应该设置在 20000 以上,

比如 kde 这样的桌面环境,它同时要用的文件非常多。

一般推荐设置为 32768 或者 65536

####################################

kern.argmax: 262144

#################http://www.bsdlover.cn#########

maximum number of bytes (or characters) in an argument list.

命令行下最多支持的参数,比如你在用 find 命令来批量删除一些文件的时候

find . -name "*.old" -delete ,如果文件数超过了这个数字,那么会提示你数字太多的。

可以利用 find . -name "*.old" -ok rm {} \; 来删除。

默认的参数已经足够多了,因此不建议再做修改。

####################################

kern.securelevel: -1

#################http://www.bsdlover.cn#########

-1 :这是系统默认级别,没有提供任何内核的保护错误;  

0 :基本上作用不多,当你的系统刚启动就是 0 级别的,当进入多用户模式的时候就自动变成 1 级了。  

1 :在这个级别上,有如下几个限制:  

   a. 不能通过 kldload 或者 kldunload 加载或者卸载可加载内核模块;  

   b. 应用程序不能通过 /dev/mem 或者 /dev/kmem 直接写内存;  

   c. 不能直接往已经装在 (mounted) 的磁盘写东西,也就是不能格式化磁盘,但是可以通过标准的内核接口执行写操作;  

   d. 不能启动 X-windows ,同时不能使用 chflags 来修改文件属性;  

2 :在 1 级别的基础上还不能写没装载的磁盘,而且不能在 1 秒之内制造多次警告,这个是防止 DoS 控制台的;  

3 :在 2 级别的级别上不允许修改 IPFW 防火墙的规则。  

  如果你已经装了防火墙,并且把规则设好了,不轻易改动,那么建议使用 3 级别,如果你没有装防火墙,而且还准备装防火墙的话,不建议使用。

我们这里推荐使用 2 级别,能够避免比较多对内核攻击。

####################################

kern.maxfilesperproc: 1735

#################http://www.bsdlover.cn#########

每个进程能够同时打开的最大文件数量,网上很多资料写的是 32768

除非用异步 I/O 或大量线程,打开这么多的文件恐怕是不太正常的。

我个人建议不做修改,保留默认。

####################################

kern.ipc.maxsockbuf: 262144

#################http://www.bsdlover.cn#########

最大的套接字缓冲区,网上有建议设置为 2097152 2M )、 8388608 8M )的。

我个人倒是建议不做修改,保持默认的 256K 即可,缓冲区大了可能造成碎片、阻塞或者丢包。

####################################

kern.ipc.somaxconn: 128

#################http://www.bsdlover.cn#########

最大的等待连接完成的套接字队列大小,即并发连接数。

高负载服务器和受到 Dos 攻击的系统也许会因为这个队列被塞满而不能提供正常服务。

默认为 128 ,推荐在 1024-4096 之间,根据机器和实际情况需要改动,数字越大占用内存也越大。

####################################

kern.ipc.nmbclusters: 4800

#################http://www.bsdlover.cn#########

这个值用来调整系统在开机后所要分配给网络 mbufs cluster 数量,

由于每个 cluster 大小为 2K ,所以当这个值为 1024 时,也是会用到 2MB 的核心内存空间。

假设我们的网页同时约有 1000 个联机,而 TCP 传送及接收的暂存区大小都是 16K

则最糟的情况下,我们会需要 (16K+16K) * 1024 ,也就是 32MB 的空间,

然而所需的 mbufs 大概是这个空间的二倍,也就是 64MB ,所以所需的 cluster 数量为 64MB/2K ,也就是 32768

对于内存有限的机器,建议值是 1024 4096 之间,而当拥有海量存储器空间时,我们可以将它设定为 4096 32768 之间。

我们可以使用 netstat 这个指令并加上参数 -m 来查看目前所使用的 mbufs 数量。

要修改这个值必须在一开机就修改,所以只能在 /boot/loader.conf 中加入修改的设定

kern.ipc.nmbclusters=32768

####################################

kern.ipc.shmmax: 33554432

#################http://www.bsdlover.cn#########

共享内存和信号灯 ("System VIPC") 如果这些过小的话,有些大型的软件将无法启动

安装 xine mplayer 提示的设置为 67108864 ,即 64M

如果内存多的话,可以设置为 134217728 ,即 128M

####################################

kern.ipc.shmall: 8192

#################http://www.bsdlover.cn#########

共享内存和信号灯 ("System VIPC") 如果这些过小的话,有些大型的软件将无法启动

安装 xine mplayer 提示的设置为 32768

####################################

kern.ipc.shm_use_phys: 0

#################http://www.bsdlover.cn#########

如果我们将它设成 1 ,则所有 System V 共享内存 (share memory ,一种程序间沟通的方式 ) 部份都会被留在实体的内存 (physical memory) 中,

而不会被放到硬盘上的 swap 空间。我们知道物理内存的存取速度比硬盘快许多,而当物理内存空间不足时,

部份数据会被放到虚拟的内存上,从物理内存和虚拟内存之间移转的动作就叫作 swap 。如果时常做 swap 的动作,

则需要一直对硬盘作 I/O ,速度会很慢。因此,如果我们有大量的程序 ( 数百个 ) 需要共同分享一个小的共享内存空间,

或者是共享内存空间很大时,我们可以将这个值打开。

这一项,我个人建议不做修改,除非你的内存非常大。

####################################

kern.ipc.shm_allow_removed: 0

#################http://www.bsdlover.cn#########

共享内存是否允许移除?这项似乎是在 fb 下装 vmware 需要设置为 1 的,否则会有加载 SVGA 出错的提示

作为服务器,这项不动也罢。

####################################

kern.ipc.numopensockets: 12

#################http://www.bsdlover.cn#########

已经开启的 socket 数目,可以在最繁忙的时候看看它是多少,然后就可以知道 maxsockets 应该设置成多少了。

####################################

kern.ipc.maxsockets: 1928

#################http://www.bsdlover.cn#########

这是用来设定系统最大可以开启的 socket 数目。如果您的服务器会提供大量的 FTP 服务,

而且常快速的传输一些小档案,您也许会发现常传输到一半就中断。因为 FTP 在传输档案时,

每一个档案都必须开启一个 socket 来传输,但关闭 socket 需要一段时间,如果传输速度很快,

而档案又多,则同一时间所开启的 socket 会超过原本系统所许可的值,这时我们就必须把这个值调大一点。

除了 FTP 外,也许有其它网络程序也会有这种问题。

然而,这个值必须在系统一开机就设定好,所以如果要修改这项设定,我们必须修改 /boot/loader.conf 才行

kern.ipc.maxsockets="16424"

####################################

kern.ipc.nsfbufs: 1456

#################http://www.bsdlover.cn#########

经常使用 sendfile(2) 系统调用的繁忙的服务器,  

有必要通过 NSFBUFS 内核选项或者在 /boot/loader.conf ( 查看 loader(8) 以获得更多细节 ) 中设置它的值来调节 sendfile(2) 缓存数量。

这个参数需要调节的普通原因是在进程中看到 sfbufa 状态。 sysctl kern.ipc.nsfbufs 变量在内核配置变量中是只读的。  

这个参数是由 kern.maxusers 决定的,然而它可能有必要因此而调整。

/boot/loader.conf 里加入

kern.ipc.nsfbufs="2496"

####################################

kern.maxusers: 59

#################http://www.bsdlover.cn#########

maxusers 的值决定了处理程序所容许的最大值, 20+16*maxusers 就是你将得到的所容许处理程序。

系统一开机就必须要有 18 个处理程序 (process) ,即便是简单的执行指令 man 又会产生 9 process

所以将这个值设为 64 应该是一个合理的数目。

如果你的系统会出现 proc table full 的讯息的话,可以就把它设大一点,例如 128

除非您的系统会需要同时开启很多档案,否则请不要设定超过 256

可以在 /boot/loader.conf 中加入该选项的设定,

kern.maxusers=256

####################################

kern.coredump: 1

#################http://www.bsdlover.cn#########

如果设置为 0 ,则程序异常退出时不会生成 core 文件,作为服务器,不建议这样。

####################################

kern.corefile: %N.core

#################http://www.bsdlover.cn#########

可设置为 kern.corefile="/data/coredump/%U-%P-%N.core"

其中 %U UID %P 是进程 ID %N 是进程名,当然 /data/coredump 必须是一个实际存在的目录

####################################

vm.swap_idle_enabled: 0

vm.swap_idle_threshold1: 2

vm.swap_idle_threshold2: 10

#########################

在有很多用户进入、离开系统和有很多空闲进程的大的多用户系统中很有用。

可以让进程更快地进入内存,但它会吃掉更多的交换和磁盘带宽。

系统默认的页面调度算法已经很好了,最好不要更改。

########################

vfs.ufs.dirhash_maxmem: 2097152

#########################

默认的 dirhash 最大内存 , 默认 2M

增加它有助于改善单目录超过 100K 个文件时的反复读目录时的性能

建议修改为 33554432 32M

#############################

vfs.vmiodirenable: 1

#################

这个变量控制目录是否被系统缓存。大多数目录是小的,在系统中只使用单个片断 ( 典型的是 1K) 并且在缓存中使用的更小 ( 典型的是 512 字节 )

当这个变量设置为关闭 (0) 时,缓存器仅仅缓存固定数量的目录,即使您有很大的内存。  

而将其开启 ( 设置为 1) 时,则允许缓存器用 VM 页面缓存来缓存这些目录,让所有可用内存来缓存目录。

不利的是最小的用来缓存目录的核心内存是大于 512 字节的物理页面大小 ( 通常是 4k)

我们建议如果您在运行任何操作大量文件的程序时保持这个选项打开的默认值。  

这些服务包括 web 缓存,大容量邮件系统和新闻系统。

尽管可能会浪费一些内存,但打开这个选项通常不会降低性能。但还是应该检验一下。

####################

vfs.hirunningspace: 1048576

############################

这个值决定了系统可以将多少数据放在写入储存设备的等候区。通常使用默认值即可,

但当我们有多颗硬盘时,我们可以将它调大为 4MB 5MB

注意这个设置成很高的值 ( 超过缓存器的写极限 ) 会导致坏的性能。

不要盲目的把它设置太高!高的数值会导致同时发生的读操作的迟延。

#############################

vfs.write_behind: 1

#########################

这个选项预设为 1 ,也就是打开的状态。在打开时,在系统需要写入数据在硬盘或其它储存设备上时,

它会等到收集了一个 cluster 单位的数据后再一次写入,否则会在一个暂存区空间有写入需求时就立即写到硬盘上。

这个选项打开时,对于一个大的连续的文件写入速度非常有帮助。但如果您遇到有很多行程延滞在等待写入动作时,您可能必须关闭这个功能。

############################

net.local.stream.sendspace: 8192

##################################

本地套接字连接的数据发送空间

建议设置为 65536

###################################

net.local.stream.recvspace: 8192

##################################

本地套接字连接的数据接收空间

建议设置为 65536

###################################

net.inet.ip.portrange.lowfirst: 1023

net.inet.ip.portrange.lowlast: 600

net.inet.ip.portrange.first: 49152

net.inet.ip.portrange.last: 65535

net.inet.ip.portrange.hifirst: 49152

net.inet.ip.portrange.hilast: 65535

###################

以上六项是用来控制 TCP UDP 所使用的 port 范围,这个范围被分成三个部份,低范围、预设范围、及高范围。

这些是你的服务器主动发起连接时的临时端口的范围,预设的已经 1 万多了,一般的应用就足够了。

如果是比较忙碌的 FTP server ,一般也不会同时提供给 1 万多人访问的,

当然如果很不幸,你的服务器就要提供很多,那么可以修改 first 的值,比如直接用 1024 开始

#########################

net.inet.ip.redirect: 1

#########################

设置为 0 ,屏蔽 ip 重定向功能

###########################

net.inet.ip.rtexpire: 3600

net.inet.ip.rtminexpire: 10

########################

很多 apache 产生的 CLOSE_WAIT 状态,这种状态是等待客户端关闭,但是客户端那边并没有正常的关闭,于是留下很多这样的东东。

建议都修改为 2

#########################

net.inet.ip.intr_queue_maxlen: 50

########################

Maximum size of the IP input queue ,如果下面的 net.inet.ip.intr_queue_drops 一直在增加,

那就说明你的队列空间不足了,那么可以考虑增加该值。

##########################

net.inet.ip.intr_queue_drops: 0

####################

Number of packets dropped from the IP input queue, 如果你 sysctl 它一直在增加,

那么增加 net.inet.ip.intr_queue_maxlen 的值。

#######################

net.inet.ip.fastforwarding: 0

#############################

如果打开的话每个目标地址一次转发成功以后它的数据都将被记录进路由表和 arp 数据表,节约路由的计算时间

但会需要大量的内核内存空间来保存路由表。

如果内存够大,打开吧,呵呵

#############################

net.inet.ip.random_id: 0

#####################

默认情况下, ip 包的 id 号是连续的,而这些可能会被攻击者利用,比如可以知道你 nat 后面带了多少主机。

如果设置成 1 ,则这个 id 号是随机的,嘿嘿。

#####################

net.inet.icmp.maskrepl: 0

############################

防止广播风暴,关闭其他广播探测的响应。默认即是,无须修改。

###############################

net.inet.icmp.icmplim: 200

##############################

限制系统发送 ICMP 速率,改为 100 吧,或者保留也可,并不会给系统带来太大的压力。

###########################

net.inet.icmp.icmplim_output: 1

###################################

如果设置成 0 ,就不会看到提示说 Limiting icmp unreach response from 214 to 200 packets per second 等等了

不过禁止输出容易让我们忽视攻击的存在。这个自己看着办吧。

######################################

net.inet.icmp.drop_redirect: 0

net.inet.icmp.log_redirect: 0

###################################

设置为 1 ,屏蔽 ICMP 重定向功能

###################################

net.inet.icmp.bmcastecho: 0

############################

防止广播风暴,关闭广播 ECHO 响应,默认即是,无须修改。

###############################

net.inet.tcp.mssdflt: 512

net.inet.tcp.minmss: 216

###############################

数据包数据段最小值,以上两个选项最好不动!或者只修改 mssdflt 1460 minmss 不动。

原因详见 http://www.bsdlover.cn/security/2007/1211/article_4.html

#############################

net.inet.tcp.keepidle: 7200000

######################

TCP 的套接字的空闲时间,默认时间太长,可以改为 600000 10 分钟)。

##########################

net.inet.tcp.sendspace: 32768

#################http://www.bsdlover.cn#########

最大的待发送 TCP 数据缓冲区空间,应用程序将数据放到这里就认为发送成功了,系统 TCP 堆栈保证数据的正常发送。

####################################

net.inet.tcp.recvspace: 65536

###################################

最大的接受 TCP 缓冲区空间,系统从这里将数据分发给不同的套接字,增大该空间可提高系统瞬间接受数据的能力以提高性能。

###################################

这二个选项分别控制了网络 TCP 联机所使用的传送及接收暂存区的大小。预设的传送暂存区为 32K ,而接收暂存区为 64K

如果需要加速 TCP 的传输,可以将这二个值调大一点,但缺点是太大的值会造成系统核心占用太多的内存。

如果我们的机器会同时服务数百或数千个网络联机,那么这二个选项最好维持默认值,否则会造成系统核心内存不足。

但如果我们使用的是 gigabite 的网络,将这二个值调大会有明显效能的提升。

传送及接收的暂存区大小可以分开调整,

例如,假设我们的系统主要做为网页服务器,我们可以将接收的暂存区调小一点,并将传送的暂存区调大,如此一来,我们就可以避免占去太多的核心内存空间。

net.inet.udp.maxdgram: 9216

#########################

最大的发送 UDP 数据缓冲区大小,网上的资料大多都是 65536 ,我个人认为没多大必要,

如果要调整,可以试试 24576

##############################

net.inet.udp.recvspace: 42080

##################

最大的接受 UDP 缓冲区大小,网上的资料大多都是 65536 ,我个人认为没多大必要,

如果要调整,可以试试 49152

#######################

以上四项配置通常不会导致问题,一般说来网络流量是不对称的,因此应该根据实际情况调整,并观察其效果。

如果我们将传送或接收的暂存区设为大于 65535 ,除非服务器本身及客户端所使用的操作系统都支持 TCP 协议的 windows scaling extension ( 请参考 RFC 1323 文件 )

FreeBSD 默认已支持 rfs1323 ( sysctl net.inet.tcp.rfc1323 选项 )

###################################################

net.inet.tcp.log_in_vain: 0

##################

记录下任何 TCP 连接,这个一般情况下不应该更改。

####################

net.inet.tcp.blackhole: 0

##################################

建议设置为 2 ,接收到一个已经关闭的端口发来的所有包,直接 drop ,如果设置为 1 则是只针对 TCP

#####################################

net.inet.tcp.delayed_ack: 1

###########################

当一台计算机发起 TCP 连接请求时,系统会回应 ACK 应答数据包。

该选项设置是否延迟 ACK 应答数据包,把它和包含数据的数据包一起发送。

在高速网络和低负载的情况下会略微提高性能,但在网络连接较差的时候,

对方计算机得不到应答会持续发起连接请求,反而会让网络更加拥堵,降低性能。

因此这个值我建议您看情况而定,如果您的网速不是问题,可以将封包数量减少一半

如果网络不是特别好,那么就设置为 0 ,有请求就先回应,这样其实浪费的网通、电信的带宽速率而不是你的处理时间 :)

############################

net.inet.tcp.inflight.enable: 1

net.inet.tcp.inflight.debug: 0

net.inet.tcp.inflight.rttthresh: 10

net.inet.tcp.inflight.min: 6144

net.inet.tcp.inflight.max: 1073725440

net.inet.tcp.inflight.stab: 20

###########################

限制 TCP 带宽延迟积和 NetBSD TCP/Vegas 类似。  

它可以通过将 sysctl 变量 net.inet.tcp.inflight.enable 设置成 1 来启用。  

系统将尝试计算每一个连接的带宽延迟积,并将排队的数据量限制在恰好能保持最优吞吐量的水平上。

这一特性在您的服务器同时向使用普通调制解调器,千兆以太网,乃至更高速度的光与网络连接 ( 或其他带宽延迟积很大的连接 ) 的时候尤为重要,

特别是当您同时使用滑动窗缩放,或使用了大的发送窗口的时候。  

如果启用了这个选项,您还应该把 net.inet.tcp.inflight.debug 设置为 0 ( 禁用调试 )

对于生产环境而言, net.inet.tcp.inflight.min 设置成至少 6144 会很有好处。  

然而, 需要注意的是,这个值设置过大事实上相当于禁用了连接带宽延迟积限制功能。

这个限制特性减少了在路由和交换包队列的堵塞数据数量,也减少了在本地主机接口队列阻塞的数据的数量。

在少数的等候队列中、交互式连接,尤其是通过慢速的调制解调器,也能用低的 往返时间操作。

但是,注意这只影响到数据发送 ( 上载 / 服务端 ) 。对数据接收 ( 下载 ) 没有效果。

调整 net.inet.tcp.inflight.stab 推荐的。

这个参数的默认值是 20 ,表示把 2 个最大包加入到带宽延迟积窗口的计算中。  

额外的窗口似的算法更为稳定,并改善对于多变网络环境的相应能力,  

但也会导致慢速连接下的 ping 时间增长 ( 尽管还是会比没有使用 inflight 算法低许多 )  

对于这些情形, 您可能会希望把这个参数减少到 15 10 5  

并可能因此而不得不减少 net.inet.tcp.inflight.min ( 比如说, 3500) 来得到希望的效果。

减少这些参数的值, 只应作为最后不得已时的手段来使用。

############################

net.inet.tcp.syncookies: 1

#########################

SYN cookies 是一种用于通过选择加密的初始化 TCP 序列号,可以对回应的包做验证来降低 SYN' 洪水 ' 攻击的影响的技术。

默认即是,不需修改

########################

net.inet.tcp.msl: 30000

#######################

这个值网上很多文章都推荐的 7500

还可以改的更小一些 ( 2000 2500) ,这样可以加快不正常连接的释放过程 ( 三次握手 2 秒、 FIN_WAIT4 )

#########################

net.inet.tcp.always_keepalive: 1

###########################

帮助系统清除没有正常断开的 TCP 连接,这增加了一些网络带宽的使用,但是一些死掉的连接最终能被识别并清除。

死的 TCP 连接是被拨号用户存取的系统的一个特别的问题,因为用户经常断开 modem 而不正确的关闭活动的连接。

#############################

net.inet.udp.checksum: 1

#########################

防止不正确的 udp 包的攻击,默认即是,不需修改

##############################

net.inet.udp.log_in_vain: 0

#######################

记录下任何 UDP 连接 , 这个一般情况下不应该修改。

#######################

net.inet.udp.blackhole: 0

####################

建议设置为 1 ,接收到一个已经关闭的端口发来的所有 UDP 包直接 drop

#######################

net.inet.raw.maxdgram: 8192

#########################

Maximum outgoing raw IP datagram size

很多文章建议设置为 65536 ,好像没多大必要。

######################################

net.inet.raw.recvspace: 8192

######################

Maximum incoming raw IP datagram size

很多文章建议设置为 65536 ,好像没多大必要。

#######################

net.link.ether.inet.max_age: 1200

####################

调整 ARP 清理的时间,通过向 IP 路由缓冲填充伪造的 ARP 条目可以让恶意用户产生资源耗竭和性能减低攻击。

这项似乎大家都未做改动,我建议不动或者稍微减少,比如 300 HP-UX 默认的 5 分钟)

#######################

net.inet6.ip6.redirect: 1

###############################

设置为 0 ,屏蔽 ipv6 重定向功能

###########################

net.isr.direct: 0

#################http://www.bsdlover.cn#########

所有 MPSAFE 的网络 ISR 对包做立即响应 , 提高网卡性能,设置为 1

####################################

hw.ata.wc: 1

#####################

这个选项用来打开 IDE 硬盘快取。当打开时,如果有数据要写入硬盘时,硬盘会假装已完成写入,并将数据快取起来。

这种作法会加速硬盘的存取速度,但当系统异常关机时,比较容易造成数据遗失。

不过由于关闭这个功能所带来的速度差异实在太大,建议还是保留原本打开的状态吧,不做修改。

###################

security.bsd.see_other_uids: 1

security.bsd.see_other_gids: 1

#####################

不允许用户看到其他用户的进程 , 因此应该改成 0

####################

分享到:
评论

相关推荐

    linux 内核参数调优

    Linux 内核参数调优详解 Linux 内核参数是 Linux 操作系统的核心组件之一,它控制着系统的行为和性能。通过调整 Linux 内核参数,可以提高系统的性能、安全性和稳定性。本文将详细讲解 Linux 内核参数的调整,包括...

    Linux 内核参数调优文档

    Linux 下 系统参数的调优经验之谈,非常给力的!调优系统必备

    FreeBSD系统优化部分内核参数调优中文解释

    FreeBSD系统优化部分内核参数调优中文解释。#最大的接受TCP缓冲区空间net.inet.tcp.recvspace=65536#最大的接受UDP缓冲区大小net.inet.udp.sendspace=65535#最大的发送UDP数据缓冲区大小  #最大的接受TCP缓冲区空间...

    针对应用服务器的CPU-内存-IO-网络全面调优实践

    1. 内核参数调优可以参考内核文档,了解各项参数的作用。 2. 使用sysctl命令来动态调整内核参数,例如调整net.core.rmem_max等网络相关参数。 3. 在系统启动时,通过修改/etc/sysctl.conf文件来永久保存调整后的...

    linux 内核参数VM调优 之 参数调节和场景分析

    参数调优策略 对于存在大量脏数据的系统,可以通过以下步骤进行调优: - **调节`dirty_background_ratio`**:适当减小此参数可以减少缓存中脏数据的数量。在脏数据量大或磁盘速度较慢的情况下,建议设置更低的值...

    Linux内核参数调整及ORACLE调优参数

    Linux内核参数调整及ORACLE调优参数

    Oracle 系统 调优

    Oracle 10G RAC 系统 调优和操作系统内核调整

    linux内核参数

    Linux内核参数调优是优化服务器性能的关键环节,特别是在硬件资源有限的情况下,通过调整内核参数可以有效地提高服务器的并发处理能力。对于Web服务器,如Nginx和Apache,它们的并发模型对于处理高负载至关重要。...

    Red Hat Enterprise Linux在IBM xSeries服务器上的调优

    本文档主要讨论在Red Hat Enterprise Linux (RHEL)系统上针对IBM xSeries服务器进行内核参数调优的方法。内核参数调优是一种重要的系统管理技能,能够帮助提高服务器的性能和稳定性。尽管直接修改或重新编译内核源...

    linux性能调优一些整合文档打包

    6. **系统内核参数调优**: 内核参数直接影响系统行为。例如,调整中断处理、进程调度、内存管理等相关参数,可以显著改善特定工作负载下的系统性能。 7. **服务与应用优化**: 对于特定服务(如Apache、Nginx、...

    LINUX性能调优方法总结

    6. **内核参数调优**:根据系统负载和硬件配置,调整内核参数,如`kernel.shmall`和`kernel.shmmax`用于共享内存,`kernel.pid_max`控制最大进程数。 7. **调度器优化**:理解不同的CPU调度器(如CFS, RT)并根据...

    kafka配置调优实践

    五、Linux 内核参数优化 * 调大 socket 发送和接收 buffer 的最大内存:net.core.wmem_default 和 net.core.rmem_default 为 128kb,net.core.wmem_max 和 net.core.rmem_max 为 2 Mb。 * 调整 TCP socket 的发送和...

    Linux内核调优

    通过对内核参数的调整,可以显著提升服务器的运行效率,尤其是在面对高并发连接请求时。本文将详细介绍如何修改用户进程可打开文件数限制这一核心知识点。 #### 二、理解文件句柄与并发连接限制 在Linux系统中,每...

    PilotGo 是一个用 go 编写的可插拔操作平台,是 openEuler 社区原生孵化的运维管理平台

    状态前端可视化、直接执行软件包管理、服务管理、内核参数调优、简单易操作;支持运维操作并发执行,稳定高效;跟踪记录用户及插件的变更操作,方便问题回溯及安全审计;平台异常实时感知;支持扩展平台功能,插件...

    AIX内核参数调整简述.doc

    AIX 内核参数调整简述 AIX 作为经典的 Unix 系统,对于 AIX 系统管理员来说,内核参数调整具有非常大的意义。通过调整内核参数,可以提高系统性能、解决系统问题和提高系统安全性。本文将详细介绍 AIX 内核参数调整...

    Red Hat Enterprise Linux 6 Performance Tuning Guide

    1. **内核参数调优**:内核参数对系统的运行效率有着直接影响。例如,调整CPU调度策略、中断处理、虚拟内存分配策略等,可以优化CPU使用率,减少系统延迟,提高多任务并行处理能力。 2. **进程管理**:合理设置进程...

    WebLogic Tuning on HP UXIX

    - **OS内核参数调优**:针对通用目的,需要调整操作系统内核参数,如内存管理、调度策略、文件系统缓存等,以优化WebLogic Server的运行环境。例如,增加最大文件描述符数量(ulimit)以支持更多的并发连接,调整...

    linux 性能优化文档大全,各方各面

    1. **内核参数调优**:Linux内核参数直接影响系统行为,例如内存管理、调度策略和网络配置等。通过调整这些参数,可以优化系统资源的分配和使用,提高系统性能。 2. **磁盘I/O优化**:Linux支持多种文件系统,如EXT...

Global site tag (gtag.js) - Google Analytics