- 浏览: 2209627 次
- 性别:
- 来自: 北京
-
文章分类
- 全部博客 (682)
- 软件思想 (7)
- Lucene(修真篇) (17)
- Lucene(仙界篇) (20)
- Lucene(神界篇) (11)
- Solr (48)
- Hadoop (77)
- Spark (38)
- Hbase (26)
- Hive (19)
- Pig (25)
- ELK (64)
- Zookeeper (12)
- JAVA (119)
- Linux (59)
- 多线程 (8)
- Nutch (5)
- JAVA EE (21)
- Oracle (7)
- Python (32)
- Xml (5)
- Gson (1)
- Cygwin (1)
- JavaScript (4)
- MySQL (9)
- Lucene/Solr(转) (5)
- 缓存 (2)
- Github/Git (1)
- 开源爬虫 (1)
- Hadoop运维 (7)
- shell命令 (9)
- 生活感悟 (42)
- shell编程 (23)
- Scala (11)
- MongoDB (3)
- docker (2)
- Nodejs (3)
- Neo4j (5)
- storm (3)
- opencv (1)
最新评论
-
qindongliang1922:
粟谷_sugu 写道不太理解“分词字段存储docvalue是没 ...
浅谈Lucene中的DocValues -
粟谷_sugu:
不太理解“分词字段存储docvalue是没有意义的”,这句话, ...
浅谈Lucene中的DocValues -
yin_bp:
高性能elasticsearch ORM开发库使用文档http ...
为什么说Elasticsearch搜索是近实时的? -
hackWang:
请问博主,有用solr做电商的搜索项目?
Solr中Group和Facet的用法 -
章司nana:
遇到的问题同楼上 为什么会返回null
Lucene4.3开发之第八步之渡劫初期(八)
1,找出多个文件所占用的磁盘空间 du f1 f2
默认以字节为单位
显示每个目录的大小du -a dir
单独执行du dir
如果想采用更好的方式显示,可以使用du -h dir
还可以使用du -c来计算所有文件或目录总共占了多少磁盘空间:
除此之外,统计还支持过滤:
通常我们使用du -sh *来显示当前目录相下,文件大小情况:
排除部分文件:
指定深度,统计
du --ma-depth 2 dir
df -h 查看磁盘信息
2,time命令,统计命令脚本耗时
3,收集与当前登录用户,启动日志,和启动故障相关的信息
who ,w ,users ,uptime ,last .lastb
last USER获取最后登录的用户
last reboot最后重启会话信息
lastb 获取失败用户登录会话信息
3,使用watch命令,监控目录情况
默认是2秒,我们也可以指定时间
突出差异,watch -d 'cmd'
4,使用logrotate来管理日志文件,可以像JAVA里面的log4j一样,滚动生成日志文件,
logrorate的配置目录在/et/logrotate.d里面
我们可以定义一个日志如下所示:
下面看下如何向系统日志文件,写入日志信息:
加一个特定的标记:
5,查看电源测量:
安装yum install powertop
6,监控磁盘的io
使用iotop
iotop -o 显示正在进行的io活动的进程
iotop -b -n 2打印两次统计数据
iotop -p pid 显示需要监视的pid进程的io情况
7,检查磁盘及文件系统错误
fsck /dev/sdb3检查指定的路径
fsck -A 检查所有的文件系统
fsck -a /dev/sda2 自动修复错误
fsck -AN 模拟fsck执行的操作
8,which命令查找某个命令的位置:
9,whereis 命令找出源码的路径,如果有的话:
10,file命令,来确定文件类型:
11,whatis 输出简短的描述信息:
12,kill命令
列出所有信号:
kill 9 pid 最常用的终止进程命令
killall 进程名,终止一组相关的进程
13,trap命令,可以捕捉信号,并执行新的命令
14,wall命令,同一个终端广播信息,mesg y 或者mesg n可以禁止或允许写入信息
15,采集系统信息:
[root@master hadoopsys]# du hosts pub.sh 4 hosts 4 pub.sh [root@master hadoopsys]#
默认以字节为单位
显示每个目录的大小du -a dir
[root@master hadoopsys]# du -a hadoopconf/ 8 hadoopconf/mapred-queues.xml.template 4 hadoopconf/httpfs-signature.secret 4 hadoopconf/httpfs-env.sh 4 hadoopconf/mapred-env.sh 4 hadoopconf/mapred-site.xml 4 hadoopconf/core-site.xml 4 hadoopconf/yarn-site.xml 4 hadoopconf/yarn-env.sh 4 hadoopconf/hadoop-env.cmd 4 hadoopconf/hadoop-metrics2.properties 4 hadoopconf/mapred-env.cmd 4 hadoopconf/hdfs-site.xml 4 hadoopconf/hadoop-metrics.properties 4 hadoopconf/configuration.xsl 4 hadoopconf/container-executor.cfg 4 hadoopconf/httpfs-site.xml 4 hadoopconf/slaves 12 hadoopconf/log4j.properties 4 hadoopconf/capacity-scheduler.xml 4 hadoopconf/hadoop-env.sh 4 hadoopconf/httpfs-log4j.properties 12 hadoopconf/hadoop-policy.xml 4 hadoopconf/ssl-client.xml.example 4 hadoopconf/ssl-server.xml.example 4 hadoopconf/yarn-env.cmd 124 hadoopconf/ [root@master hadoopsys]#
单独执行du dir
[root@master hadoopsys]# du hadoopconf/ 124 hadoopconf/ [root@master hadoopsys]#
如果想采用更好的方式显示,可以使用du -h dir
还可以使用du -c来计算所有文件或目录总共占了多少磁盘空间:
[root@master hadoopsys]# du -c pub.sh 4 pub.sh 4 总用量 [root@master hadoopsys]#
除此之外,统计还支持过滤:
[root@master hadoopsys]# du -c *.sh 4 begin.sh 4 pub.sh 4 repack.sh 12 总用量 [root@master hadoopsys]#
通常我们使用du -sh *来显示当前目录相下,文件大小情况:
[root@master hadoopsys]# du -sch * 5.4M apache-ant-1.9.4-bin.tar.gz 52M apache-hive-0.13.1-bin.tar.gz 5.0M apache-maven-3.0.5-bin.tar.gz 4.0K begin.sh 8.0K etc 92M hadoop-2.2.0.tar.gz 124K hadoopconf 76M hbase-0.96.2-hadoop2-bin.tar.gz 36K hbaseconf 4.0K hosts 92M jdk-7u25-linux-x64.gz 4.0K pub.sh 4.0K repack.sh 16K zkconf 16M zookeeper-3.4.5.tar.gz 338M 总用量 [root@master hadoopsys]#
排除部分文件:
[root@master hadoopsys]# du --exclude "*.sh" ./ 4 ./etc 108 ./hadoopconf 28 ./hbaseconf 16 ./zkconf 345132 ./ [root@master hadoopsys]#
指定深度,统计
du --ma-depth 2 dir
df -h 查看磁盘信息
[root@master hadoopsys]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda2 9.7G 2.3G 6.9G 25% / tmpfs 495M 0 495M 0% /dev/shm /dev/sda1 194M 28M 157M 15% /boot /dev/sda3 9.9G 889M 8.6G 10% /home [root@master hadoopsys]#
2,time命令,统计命令脚本耗时
[root@master hadoopsys]# time ls apache-ant-1.9.4-bin.tar.gz begin.sh hadoopconf hosts repack.sh apache-hive-0.13.1-bin.tar.gz etc hbase-0.96.2-hadoop2-bin.tar.gz jdk-7u25-linux-x64.gz zkconf apache-maven-3.0.5-bin.tar.gz hadoop-2.2.0.tar.gz hbaseconf pub.sh zookeeper-3.4.5.tar.gz real 0m0.004s user 0m0.001s sys 0m0.003s
3,收集与当前登录用户,启动日志,和启动故障相关的信息
who ,w ,users ,uptime ,last .lastb
[root@master hadoopsys]# who root pts/0 2014-09-23 01:48 (192.168.46.24) root pts/1 2014-09-23 01:13 (192.168.46.24) [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# w 03:08:48 up 4:59, 2 users, load average: 0.00, 0.00, 0.00 USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT root pts/0 192.168.46.24 01:48 0.00s 0.13s 0.00s w root pts/1 192.168.46.24 01:13 37:06 0.03s 0.03s -bash [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# users root root [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# uptime 03:08:57 up 4:59, 2 users, load average: 0.00, 0.00, 0.00 [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# last root pts/0 192.168.46.24 Tue Sep 23 01:48 still logged in root pts/0 192.168.46.24 Tue Sep 23 01:30 - 01:48 (00:17) root pts/0 192.168.46.24 Tue Sep 23 01:17 - 01:30 (00:13) root pts/0 192.168.46.24 Tue Sep 23 01:17 - 01:17 (00:00) root pts/0 192.168.46.24 Tue Sep 23 01:16 - 01:17 (00:00) root pts/1 192.168.46.24 Tue Sep 23 01:13 still logged in root pts/0 192.168.46.24 Tue Sep 23 01:00 - 01:16 (00:15) root pts/0 192.168.46.24 Tue Sep 23 00:59 - 01:00 (00:00) dong pts/1 zk1 Mon Sep 22 22:34 - 22:35 (00:00) root pts/0 192.168.46.24 Mon Sep 22 22:16 - 23:38 (01:21) root tty1 Mon Sep 22 22:10 - 23:10 (01:00) reboot system boot 2.6.32-431.el6.x Mon Sep 22 22:09 - 03:09 (04:59) root pts/0 192.168.46.19 Wed Jun 11 00:12 - crash (103+21:56) root tty1 Wed Jun 11 00:12 - crash (103+21:57) reboot system boot 2.6.32-431.el6.x Wed Jun 11 00:12 - 03:09 (104+02:56) root pts/3 192.168.46.16 Fri May 30 17:19 - crash (11+06:53) root pts/2 192.168.46.16 Fri May 30 17:01 - crash (11+07:10) root pts/3 192.168.46.16 Fri May 30 16:19 - 17:19 (01:00) root pts/2 192.168.46.16 Fri May 30 16:01 - 17:01 (01:00) root pts/3 192.168.46.16 Fri May 30 15:19 - 16:19 (01:00) root pts/2 192.168.46.16 Fri May 30 15:01 - 16:01 (01:00) root pts/3 192.168.46.16 Fri May 30 14:19 - 15:19 (01:00) root pts/2 192.168.46.16 Fri May 30 14:01 - 15:01 (01:00) root pts/3 192.168.46.16 Fri May 30 13:18 - 14:18 (01:00) root pts/2 192.168.46.16 Fri May 30 13:01 - 14:01 (01:00) root pts/3 192.168.46.16 Fri May 30 12:18 - 13:18 (01:00) root pts/2 192.168.46.16 Fri May 30 12:01 - 13:01 (01:00) root pts/3 192.168.46.16 Fri May 30 11:18 - 12:18 (01:00) root pts/2 192.168.46.16 Fri May 30 11:01 - 12:01 (01:00) root pts/3 192.168.46.16 Fri May 30 10:18 - 11:18 (01:00) root pts/2 192.168.46.16 Fri May 30 10:01 - 11:01 (01:00) root pts/3 192.168.46.16 Fri May 30 09:18 - 10:18 (01:00) root pts/2 192.168.46.16 Fri May 30 09:01 - 10:01 (01:00) root pts/3 192.168.46.16 Fri May 30 08:18 - 09:18 (01:00) root pts/2 192.168.46.16 Fri May 30 08:01 - 09:01 (01:00) root pts/3 192.168.46.16 Fri May 30 07:18 - 08:18 (01:00) root pts/2 192.168.46.16 Fri May 30 07:01 - 08:01 (01:00) root pts/3 192.168.46.16 Fri May 30 06:18 - 07:18 (01:00) root pts/2 192.168.46.16 Fri May 30 06:01 - 07:01 (01:00) root pts/2 192.168.46.16 Fri May 30 04:26 - 06:00 (01:34) root pts/1 192.168.46.16 Fri May 30 04:00 - crash (11+20:11) root tty1 Fri May 30 03:59 - 04:59 (01:00) root pts/0 192.168.46.16 Fri May 30 03:52 - 06:18 (02:26) root pts/0 192.168.46.16 Thu May 29 18:34 - 03:48 (09:13) reboot system boot 2.6.32-431.el6.x Thu May 29 18:33 - 03:09 (116+08:35) root pts/3 192.168.46.16 Thu May 29 06:01 - crash (12:31) root pts/2 192.168.46.16 Thu May 29 05:56 - crash (12:37) root pts/1 192.168.46.16 Thu May 29 05:56 - crash (12:37) root pts/0 192.168.46.16 Thu May 29 05:55 - crash (12:38) reboot system boot 2.6.32-431.el6.x Thu May 29 05:54 - 03:09 (116+21:14) root pts/6 192.168.46.16 Thu May 29 05:48 - down (00:05) root pts/5 192.168.46.16 Thu May 29 05:46 - down (00:07) root pts/5 192.168.46.16 Thu May 29 05:46 - 05:46 (00:00) root pts/5 192.168.46.16 Thu May 29 05:41 - 05:46 (00:04) root pts/3 192.168.46.16 Thu May 29 05:39 - down (00:14) root pts/2 192.168.46.16 Thu May 29 05:38 - down (00:15) root pts/2 192.168.46.16 Thu May 29 05:37 - 05:38 (00:00) root pts/1 192.168.46.16 Thu May 29 05:37 - down (00:16) root pts/0 192.168.46.18 Thu May 29 04:43 - down (01:10) root pts/5 192.168.46.18 Thu May 29 03:42 - 04:43 (01:00) (00:03) root pts/4 master Fri Mar 7 01:16 - down (00:13) root pts/3 192.168.211.253 Fri Mar 7 01:05 - down (00:25) root pts/2 localhost Fri Mar 7 01:04 - down (00:25) root pts/1 localhost Fri Mar 7 01:04 - down (00:25) root pts/0 192.168.211.36 Thu Mar 6 22:46 - down (02:43) root tty1 Thu Mar 6 22:46 - down (02:44) reboot system boot 2.6.32-431.el6.x Thu Mar 6 22:45 - 01:30 (02:44) root tty1 Thu Mar 6 22:32 - crash (00:12) reboot system boot 2.6.32-431.el6.x Thu Mar 6 22:32 - 01:30 (02:58) root tty1 Thu Mar 6 22:05 - crash (00:26) reboot system boot 2.6.32-431.el6.x Thu Mar 6 22:04 - 01:30 (03:25) root tty1 Thu Mar 6 21:58 - down (00:06) reboot system boot 2.6.32-431.el6.x Thu Mar 6 21:58 - 22:04 (00:06) root tty1 Thu Mar 6 21:53 - crash (00:04) reboot system boot 2.6.32-431.el6.x Thu Mar 6 21:52 - 22:04 (00:11) root tty1 Thu Mar 6 21:50 - crash (00:02) reboot system boot 2.6.32-431.el6.x Thu Mar 6 21:49 - 22:04 (00:14) wtmp begins Thu Mar 6 21:49:33 2014 [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# [root@master hadoopsys]# lastb root ssh:notty 192.168.46.18 Thu May 29 03:35 - 03:35 (00:00) root ssh:notty 192.168.75.1 Thu May 29 02:03 - 02:03 (00:00) root ssh:notty 192.168.75.1 Thu May 29 02:03 - 02:03 (00:00) btmp begins Thu May 29 02:0
last USER获取最后登录的用户
last reboot最后重启会话信息
lastb 获取失败用户登录会话信息
3,使用watch命令,监控目录情况
[root@master hadoopsys]# watch 'ls -l | grep "^d" ' Every 2.0s: ls -l | grep "^d" Tue Sep 23 03:15:59 2014 drwxr-xr-x 2 root root 4096 9月 23 01:02 etc drwxr-xr-x 2 root root 4096 9月 22 16:58 hadoopconf drwxr-xr-x 2 root root 4096 9月 22 16:58 hbaseconf drwxr-xr-x 2 root root 4096 9月 22 16:58 zkconf
默认是2秒,我们也可以指定时间
[root@master hadoopsys]# watch -n 4 'ls -l' Every 4.0s: ls -l Tue Sep 23 03:18:04 2014 总用量 344992 -rw-r--r-- 1 root root 5564593 6月 9 16:00 apache-ant-1.9.4-bin.tar.gz -rw-r--r-- 1 root root 54246778 7月 24 17:22 apache-hive-0.13.1-bin.tar.gz -rw-r--r-- 1 root root 5144659 7月 10 12:50 apache-maven-3.0.5-bin.tar.gz -rw-r--r-- 1 root root 3693 9月 23 02:18 begin.sh drwxr-xr-x 2 root root 4096 9月 23 01:02 etc -rw-r--r-- 1 root root 96183833 6月 9 17:27 hadoop-2.2.0.tar.gz drwxr-xr-x 2 root root 4096 9月 22 16:58 hadoopconf -rw-r--r-- 1 root root 79367504 7月 14 10:55 hbase-0.96.2-hadoop2-bin.tar.gz drwxr-xr-x 2 root root 4096 9月 22 16:58 hbaseconf -rw-r--r-- 1 root root 42 9月 23 02:07 hosts -rw-r--r-- 1 root root 96316511 11月 20 2013 jdk-7u25-linux-x64.gz -rw-r--r-- 1 root root 235 9月 23 02:30 pub.sh -rw-r--r-- 1 root root 95 9月 23 02:18 repack.sh drwxr-xr-x 2 root root 4096 9月 22 16:58 zkconf -rw-r--r-- 1 root root 16402010 6月 12 13:54 zookeeper-3.4.5.tar.gz
突出差异,watch -d 'cmd'
4,使用logrotate来管理日志文件,可以像JAVA里面的log4j一样,滚动生成日志文件,
logrorate的配置目录在/et/logrotate.d里面
我们可以定义一个日志如下所示:
/var/log/yum.log { missingok notifempty size 30k yearly create 0600 root root }
下面看下如何向系统日志文件,写入日志信息:
[root@master logrotate.d]# logger LOG_MESSAGE [root@master logrotate.d]# logger 你好啊 [root@master logrotate.d]# tail -n 1 /var/log/messages Sep 23 03:25:17 master root: 你好啊 [root@master logrotate.d]#
加一个特定的标记:
[root@master logrotate.d]# logger -t "==>" 我我我我 [root@master logrotate.d]# tail -n 1 /var/log/messages Sep 23 03:27:22 master ==>: 我我我我 [root@master logrotate.d]#
5,查看电源测量:
安装yum install powertop
PowerTOP 2.3 Overview Idle stats Frequency stats Device stats Tunables Summary: 5.9 wakeups/second, 0.0 GPU ops/seconds, 0.0 VFS ops/sec and 5.9% CPU use Usage Events/s Category Description 44.7 ms/s 0.00 Process [khugepaged] 8.0 ms/s 1.0 Process powertop 1.8 ms/s 2.0 Process [events/0] 3.1 ms/s 1.0 Process [kswapd0] 10.3 µs/s 1.0 Process [vmmemctl] 5.5 µs/s 1.0 Process [flush-8:0] 464.4 µs/s 0.00 Timer rh_timer_func 216.5 µs/s 0.00 Timer tick_sched_timer 187.0 µs/s 0.00 Process sshd: root@pts/0 137.0 µs/s 0.00 Interrupt [9] RCU(softirq) 94.6 µs/s 0.00 Interrupt [3] net_rx(softirq) 93.3 µs/s 0.00 Interrupt [19] eth0 25.5 µs/s 0.00 Timer delayed_work_timer_fn 24.7 µs/s 0.00 Interrupt [1] timer(softirq) 22.6 µs/s 0.00 Process [mpt_poll_0] 16.8 µs/s 0.00 Timer hrtimer_wakeup 16.4 µs/s 0.00 Timer process_timeout 9.8 µs/s 0.00 Process [ksoftirqd/0] 2.6 µs/s 0.00 Timer ipmi_timeout 2.6 µs/s 0.00 Timer tcp_write_timer
6,监控磁盘的io
使用iotop
iotop -o 显示正在进行的io活动的进程
iotop -b -n 2打印两次统计数据
iotop -p pid 显示需要监视的pid进程的io情况
7,检查磁盘及文件系统错误
fsck /dev/sdb3检查指定的路径
fsck -A 检查所有的文件系统
fsck -a /dev/sda2 自动修复错误
fsck -AN 模拟fsck执行的操作
8,which命令查找某个命令的位置:
[root@master ~]# which java /usr/local/jdk/bin/java [root@master ~]#
9,whereis 命令找出源码的路径,如果有的话:
[root@master ~]# whereis java java: /etc/java /usr/lib/java /usr/share/java [root@master ~]#
10,file命令,来确定文件类型:
[root@master ~]# file bb.sh bb.sh: UTF-8 Unicode text [root@master ~]#
11,whatis 输出简短的描述信息:
12,kill命令
列出所有信号:
[root@master ~]# kill -l 1) SIGHUP 2) SIGINT 3) SIGQUIT 4) SIGILL 5) SIGTRAP 6) SIGABRT 7) SIGBUS 8) SIGFPE 9) SIGKILL 10) SIGUSR1 11) SIGSEGV 12) SIGUSR2 13) SIGPIPE 14) SIGALRM 15) SIGTERM 16) SIGSTKFLT 17) SIGCHLD 18) SIGCONT 19) SIGSTOP 20) SIGTSTP 21) SIGTTIN 22) SIGTTOU 23) SIGURG 24) SIGXCPU 25) SIGXFSZ 26) SIGVTALRM 27) SIGPROF 28) SIGWINCH 29) SIGIO 30) SIGPWR 31) SIGSYS 34) SIGRTMIN 35) SIGRTMIN+1 36) SIGRTMIN+2 37) SIGRTMIN+3 38) SIGRTMIN+4 39) SIGRTMIN+5 40) SIGRTMIN+6 41) SIGRTMIN+7 42) SIGRTMIN+8 43) SIGRTMIN+9 44) SIGRTMIN+10 45) SIGRTMIN+11 46) SIGRTMIN+12 47) SIGRTMIN+13 48) SIGRTMIN+14 49) SIGRTMIN+15 50) SIGRTMAX-14 51) SIGRTMAX-13 52) SIGRTMAX-12 53) SIGRTMAX-11 54) SIGRTMAX-10 55) SIGRTMAX-9 56) SIGRTMAX-8 57) SIGRTMAX-7 58) SIGRTMAX-6 59) SIGRTMAX-5 60) SIGRTMAX-4 61) SIGRTMAX-3 62) SIGRTMAX-2 63) SIGRTMAX-1 64) SIGRTMAX [root@master ~]#
kill 9 pid 最常用的终止进程命令
killall 进程名,终止一组相关的进程
13,trap命令,可以捕捉信号,并执行新的命令
14,wall命令,同一个终端广播信息,mesg y 或者mesg n可以禁止或允许写入信息
15,采集系统信息:
[root@master ~]# hostname master [root@master ~]# uname -n master [root@master ~]# unmae -a -bash: unmae: command not found [root@master ~]# uname -a Linux master 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux [root@master ~]# uname -r 2.6.32-431.el6.x86_64 [root@master ~]# uname -m x86_64 [root@master ~]# cat /proc/cpuinfo processor : 0 vendor_id : GenuineIntel cpu family : 6 model : 58 model name : Intel(R) Core(TM) i5-3470 CPU @ 3.20GHz stepping : 9 cpu MHz : 3192.789 cache size : 6144 KB fpu : yes fpu_exception : yes cpuid level : 13 wp : yes flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts mmx fxsr sse sse2 ss syscall nx rdtscp lm constant_tsc up arch_perfmon pebs bts xtopology tsc_reliable nonstop_tsc aperfmperf unfair_spinlock pni pclmulqdq ssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt aes xsave avx f16c rdrand hypervisor lahf_lm ida arat epb xsaveopt pln pts dts fsgsbase smep bogomips : 6385.57 clflush size : 64 cache_alignment : 64 address sizes : 40 bits physical, 48 bits virtual power management: [root@master ~]# cat /proc/meminfo MemTotal: 1012352 kB MemFree: 242180 kB Buffers: 19320 kB Cached: 670172 kB SwapCached: 0 kB Active: 360848 kB Inactive: 335756 kB Active(anon): 7124 kB Inactive(anon): 212 kB Active(file): 353724 kB Inactive(file): 335544 kB Unevictable: 0 kB Mlocked: 0 kB SwapTotal: 0 kB SwapFree: 0 kB Dirty: 16 kB Writeback: 0 kB AnonPages: 7128 kB Mapped: 5132 kB Shmem: 224 kB Slab: 57144 kB SReclaimable: 35492 kB SUnreclaim: 21652 kB KernelStack: 592 kB PageTables: 1308 kB NFS_Unstable: 0 kB Bounce: 0 kB WritebackTmp: 0 kB CommitLimit: 506176 kB Committed_AS: 48544 kB VmallocTotal: 34359738367 kB VmallocUsed: 144700 kB VmallocChunk: 34359588136 kB HardwareCorrupted: 0 kB AnonHugePages: 0 kB HugePages_Total: 0 HugePages_Free: 0 HugePages_Rsvd: 0 HugePages_Surp: 0 Hugepagesize: 2048 kB DirectMap4k: 8192 kB DirectMap2M: 1040384 kB [root@master ~]# cat /proc/partitions major minor #blocks name 8 0 20971520 sda 8 1 204800 sda1 8 2 10240000 sda2 8 3 10525696 sda3 [root@master ~]# fdisk -l Disk /dev/sda: 21.5 GB, 21474836480 bytes 255 heads, 63 sectors/track, 2610 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0000791d Device Boot Start End Blocks Id System /dev/sda1 * 1 26 204800 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 26 1301 10240000 83 Linux /dev/sda3 1301 2611 10525696 83 Linux [root@master ~]# lshw -bash: lshw: command not found [root@master ~]# ls ls lsattr lsblk lscpu lsinitrd lsmod [root@master ~]# ls ls lsattr lsblk lscpu lsinitrd lsmod [root@master ~]# lscpu Architecture: x86_64 CPU op-mode(s): 32-bit, 64-bit Byte Order: Little Endian CPU(s): 1 On-line CPU(s) list: 0 Thread(s) per core: 1 Core(s) per socket: 1 Socket(s): 1 NUMA node(s): 1 Vendor ID: GenuineIntel CPU family: 6 Model: 58 Stepping: 9 CPU MHz: 3192.789 BogoMIPS: 6385.57 Hypervisor vendor: VMware Virtualization type: full L1d cache: 32K L1i cache: 32K L2 cache: 256K L3 cache: 6144K NUMA node0 CPU(s): 0 [root@master ~]#
发表评论
-
备忘几个有用的shell脚本
2015-04-07 21:59 1535(1)在shell下,操作hadoop目录,批量命名或删除, ... -
shell脚本杂记(四)
2014-09-19 20:03 17331,wget是一个用于文件 ... -
shell自动化部署批量建立用户和批量SSH配置
2014-09-18 18:29 3660在linux下面,shell脚本熟练使用,有时候可以帮助我们解 ... -
shell自动化部署神器expect
2014-09-17 21:08 4725Shell可以实现简单的控制流功能,如:循环、判断等。但是对于 ... -
shell脚本杂记(三)
2014-09-16 19:58 16511,我们先来熟悉下正则表达式一些字符含义的基础 ^行起始标记 ... -
shell脚本杂记(二)
2014-09-15 21:25 20461,求两个文件的交集comm a.txt b.txt -1 - ... -
shell脚本杂记(一)
2014-09-12 21:50 20721,登陆系统时,$代表 ... -
跟散仙学shell编程(十五)
2014-08-27 21:24 1868上篇文章,散仙简单介绍了,如何在Linux下以shell脚本的 ... -
跟散仙学shell编程(十四)
2014-08-26 20:59 1963上篇散仙简单介绍了linu ... -
跟散仙学shell编程(十三)
2014-08-25 20:02 1369上篇散仙主要了讲述了gawk进阶的一些用法,本篇我们来了解下载 ... -
跟散仙学shell编程(十二)
2014-08-22 21:27 1611上篇文章散仙写了关于sed进阶,本篇我们来看下在linux中另 ... -
跟散仙学shell编程(十一)
2014-08-21 21:45 1701上篇散仙写了关于shell里面正则的基础知识,本篇我们来特意学 ... -
跟散仙学shell编程(十)
2014-08-20 21:22 1345上篇文章,散仙简单介绍了在linux中,使用sed和gawk编 ... -
跟散仙学shell编程(九)
2014-08-19 21:49 1743上篇散仙说了如何在linux里面构建更好的交互式shell,本 ... -
跟散仙学shell编程(八)
2014-08-18 21:50 1658上篇散仙说了linux里面函数的使用,本篇我们来看下如何在sh ... -
跟散仙学shell编程(七)
2014-08-15 21:46 1836上篇散仙在文章里描述了如何处理linux信号和脚本控制,本节我 ... -
跟散仙学shell编程(六)
2014-08-14 21:53 2135上篇介绍了linux里面的处理数据的方式,本篇散仙来说下,如何 ... -
跟散仙学shell编程(五)
2014-08-13 21:41 1695上一篇写的是处理用户输入,本篇散仙要写的是linux里面的标准 ... -
跟散仙学shell编程(四)
2014-08-12 21:46 1561上篇介绍了for循环命令 ... -
跟散仙学shell编程(三)
2014-08-11 21:38 1781散仙在上一篇文章里写了关于如何使用if-else以及case等 ...
相关推荐
了解Linux内核、Shell脚本编程和系统监控也是必备技能。 【密码学】:密码学是信息安全的基础,涉及加密、解密、数字签名、哈希函数等概念。在现代网络中,密码学用于保护数据的机密性、完整性和身份验证。理解公钥...
# 【spring-ai-spring-boot-autoconfigure-***.jar中文文档.zip】 中包含: 中文文档:【spring-ai-spring-boot-autoconfigure-***-javadoc-API文档-中文(简体)版.zip】 jar包下载地址:【spring-ai-spring-boot-autoconfigure-***.jar下载地址(官方地址+国内镜像地址).txt】 Maven依赖:【spring-ai-spring-boot-autoconfigure-***.jar Maven依赖信息(可用于项目pom.xml).txt】 Gradle依赖:【spring-ai-spring-boot-autoconfigure-***.jar Gradle依赖信息(可用于项目build.gradle).txt】 源代码下载地址:【spring-ai-spring-boot-autoconfigure-***-sources.jar下载地址(官方地址+国内镜像地址).txt】 # 本文件关键字: spring-ai-spring-boot-autoconfigure-***.jar中文文档.zip,java,spring-ai-spring-boot-autoconfigure-***.jar,org.springframework.ai,spring-ai-spring-boot-autoconfigure,***,org.springframework.ai.autoconfigure.anthropic,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,springframework,spring,ai,boot,autoconfigure,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压 【spring-ai-spring-boot-autoconfigure-***.jar中文文档.zip】,再解压其中的 【spring-ai-spring-boot-autoconfigure-***-javadoc-API文档-中文(简体)版.zip】,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件; # Maven依赖: ``` <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-spring-boot-autoconfigure</artifactId> <version>***</version> </dependency> ``` # Gradle依赖: ``` Gradle: implementation group: 'org.springframework.ai', name: 'spring-ai-spring-boot-autoconfigure', version: '***' Gradle (Short): implementation 'org.springframework.ai:spring-ai-spring-boot-autoconfigure:***' Gradle (Kotlin): implementation("org.springframework.ai:spring-ai-spring-boot-autoconfigure:***") ``` # 含有的 Java package(包): ``` org.springframework.ai.autoconfigure.anthropic org.springframework.ai.autoconfigure.azure.openai org.springframework.ai.autoconfigure.bedrock org.springframework.ai.autoconfigure.bedrock.anthropic org.springframework.ai.autoconfigure.bedrock.anthropic3
在当今智慧城市的建设浪潮中,智慧环卫作为城市管理的重要组成部分,正以其独特的魅力引领着环卫行业的变革。本方案旨在通过一系列高科技手段,如物联网、大数据、云计算等,全面提升环卫作业效率与管理水平,为城市居民创造更加清洁、宜居的生活环境。 一、智慧环卫系统概述与核心亮点 智慧环卫系统是一个集机械化保洁、垃圾清运、设施管理、事件指挥调度等多功能于一体的综合性管理平台。其核心亮点在于通过高精度定位、实时监控与智能分析,实现环卫作业的精细化管理。例如,机械化保洁管理子系统能够实时监控机扫车、洒水车等作业车辆的运行状态,自动规划最优作业路线,并根据作业完成情况生成考核评价报表,极大地提高了作业效率与服务质量。同时,垃圾清运管理子系统则通过安装GPS定位设备和油量传感器,对清运车辆进行全方位监控,确保垃圾清运过程的规范与高效,有效解决了城市垃圾堆积与随意倾倒的问题。此外,系统还配备了垃圾箱满溢报警系统,通过智能感应技术,当垃圾箱内垃圾达到预设高度时自动报警,提醒作业人员及时清运,避免了因垃圾满溢而引发的居民投诉与环境污染。 二、智慧环卫系统的趣味性与知识性融合 智慧环卫系统不仅实用性强,还蕴含着丰富的趣味性与知识性。以餐厨垃圾收运管理子系统为例,该系统通过为餐厨垃圾收运车辆安装GPS定位、车载称重、视频监控等多种感知设备,实现了对餐厨垃圾收运过程的全程监控与智能管理。作业人员可以通过手机APP实时查看车辆位置、行驶轨迹及收运情况,仿佛在玩一场现实版的“垃圾追踪游戏”。同时,系统还能自动生成餐厨垃圾收运统计报表,帮助管理人员轻松掌握收运量、违规情况等关键数据,让数据管理变得既科学又有趣。此外,中转站视频监控子系统更是将趣味性与实用性完美结合,通过高清摄像头与双向语音对讲功能,实现了对中转站内外环境的实时监控与远程指挥,让管理人员足不出户就能掌控全局,仿佛拥有了一双“千里眼”和一对“顺风耳”。 三、智慧环卫系统的未来展望与社会价值 随着科技的不断进步与智慧城市建设的深入推进,智慧环卫系统将迎来更加广阔的发展前景。未来,智慧环卫系统将更加注重数据的深度挖掘与分析,通过大数据与人工智能技术,为城市环卫管理提供更加精准、高效的决策支持。同时,系统还将加强与其他城市管理系统的互联互通,实现资源共享与协同作战,共同推动城市管理的智能化、精细化水平。从社会价值来看,智慧环卫系统的推广与应用将有效提升城市环境卫生质量,改善居民生活环境,提升城市形象与竞争力。此外,系统还能通过优化作业流程、减少资源浪费等方式,为城市可持续发展贡献重要力量。可以说,智慧环卫系统不仅是城市管理的得力助手,更是推动社会进步与文明发展的重要力量。
微信小程序驾校管理平台约车小程序demo完整源码下载_完整源码
内容概要:本文详细介绍了使用MATLAB和YALMIP工具包构建的电力系统低碳调度模型。该模型主要解决风电和负荷不确定性带来的挑战,采用模糊机会约束处理风电预测误差,将复杂的非线性约束转化为混合整数线性规划问题。文中展示了如何通过分段线性化、大M法等技巧提高求解效率,并实现了包括火电、水电、风电、储能等多种能源类型的综合调度。此外,还讨论了碳排放成本、启停时间约束、爬坡率约束以及储能系统的建模方法。最终,通过结果可视化展示各成本构成及其对调度策略的影响。 适合人群:从事电力系统优化研究的专业人士,尤其是熟悉MATLAB编程并希望深入了解低碳调度模型的研究人员和技术人员。 使用场景及目标:适用于需要处理风电不确定性、优化电力系统调度的研究项目。目标是降低电力生产成本的同时减少碳排放,确保电力系统的稳定性和经济性。 其他说明:代码中包含了详细的注释和扩展提示,方便进一步修改与应用。对于大规模电力系统调度问题,提供了高效的求解策略和性能优化建议。
1.版本:matlab2014/2019a/2024a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。
my lib1.SCHLIB
内容概要:本文详细介绍了西门子PLC动态加密计时催款程序的设计与实现。该程序旨在解决工控领域中常见的客户拖延付款问题。通过利用PLC的定时器功能和复杂的加密算法,程序能够在设备运行一段时间后自动触发锁机机制,提醒客户按时验收付款。主要内容包括加密计时的核心思路、代码示例与分析、动态加密的具体实现方法以及柔性锁机的应用技巧。此外,文中还提供了具体的SCL代码片段,展示了如何通过时间校验、动态密钥生成和渐进式降速等方式实现灵活的锁机控制。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是负责PLC编程和设备管理的专业人士。 使用场景及目标:适用于设备调试完成后客户拖延付款或拒绝验收的场景。主要目标是通过技术手段保障供应商的合法权益,促进客户按时履约,减少因款项延迟带来的经济损失。 其他说明:文中强调了技术催款并非为了惩罚客户,而是为了建立良好的契约精神。同时,作者分享了一些实用的经验和技巧,如设置合理的调试接口、时间缓冲期和操作提示,确保程序既有效又人性化。
在当今智慧城市的建设浪潮中,智慧环卫作为城市管理的重要组成部分,正以其独特的魅力引领着环卫行业的变革。本方案旨在通过一系列高科技手段,如物联网、大数据、云计算等,全面提升环卫作业效率与管理水平,为城市居民创造更加清洁、宜居的生活环境。 一、智慧环卫系统概述与核心亮点 智慧环卫系统是一个集机械化保洁、垃圾清运、设施管理、事件指挥调度等多功能于一体的综合性管理平台。其核心亮点在于通过高精度定位、实时监控与智能分析,实现环卫作业的精细化管理。例如,机械化保洁管理子系统能够实时监控机扫车、洒水车等作业车辆的运行状态,自动规划最优作业路线,并根据作业完成情况生成考核评价报表,极大地提高了作业效率与服务质量。同时,垃圾清运管理子系统则通过安装GPS定位设备和油量传感器,对清运车辆进行全方位监控,确保垃圾清运过程的规范与高效,有效解决了城市垃圾堆积与随意倾倒的问题。此外,系统还配备了垃圾箱满溢报警系统,通过智能感应技术,当垃圾箱内垃圾达到预设高度时自动报警,提醒作业人员及时清运,避免了因垃圾满溢而引发的居民投诉与环境污染。 二、智慧环卫系统的趣味性与知识性融合 智慧环卫系统不仅实用性强,还蕴含着丰富的趣味性与知识性。以餐厨垃圾收运管理子系统为例,该系统通过为餐厨垃圾收运车辆安装GPS定位、车载称重、视频监控等多种感知设备,实现了对餐厨垃圾收运过程的全程监控与智能管理。作业人员可以通过手机APP实时查看车辆位置、行驶轨迹及收运情况,仿佛在玩一场现实版的“垃圾追踪游戏”。同时,系统还能自动生成餐厨垃圾收运统计报表,帮助管理人员轻松掌握收运量、违规情况等关键数据,让数据管理变得既科学又有趣。此外,中转站视频监控子系统更是将趣味性与实用性完美结合,通过高清摄像头与双向语音对讲功能,实现了对中转站内外环境的实时监控与远程指挥,让管理人员足不出户就能掌控全局,仿佛拥有了一双“千里眼”和一对“顺风耳”。 三、智慧环卫系统的未来展望与社会价值 随着科技的不断进步与智慧城市建设的深入推进,智慧环卫系统将迎来更加广阔的发展前景。未来,智慧环卫系统将更加注重数据的深度挖掘与分析,通过大数据与人工智能技术,为城市环卫管理提供更加精准、高效的决策支持。同时,系统还将加强与其他城市管理系统的互联互通,实现资源共享与协同作战,共同推动城市管理的智能化、精细化水平。从社会价值来看,智慧环卫系统的推广与应用将有效提升城市环境卫生质量,改善居民生活环境,提升城市形象与竞争力。此外,系统还能通过优化作业流程、减少资源浪费等方式,为城市可持续发展贡献重要力量。可以说,智慧环卫系统不仅是城市管理的得力助手,更是推动社会进步与文明发展的重要力量。
# 【spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7.jar中文-英文对照文档.zip】 中包含: 中文-英文对照文档:【spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7-javadoc-API文档-中文(简体)-英语-对照版.zip】 jar包下载地址:【spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7.jar下载地址(官方地址+国内镜像地址).txt】 Maven依赖:【spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7.jar Maven依赖信息(可用于项目pom.xml).txt】 Gradle依赖:【spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7.jar Gradle依赖信息(可用于项目build.gradle).txt】 源代码下载地址:【spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7-sources.jar下载地址(官方地址+国内镜像地址).txt】 # 本文件关键字: spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7.jar中文-英文对照文档.zip,java,spring-ai-autoconfigure-vector-store-mongodb-atlas-1.0.0-M7.jar,org.springframework.ai,spring-ai-auto
内容概要:本文介绍了利用MATLAB实现多目标粒子群算法(MOPSO),用于优化冷热电联供(CCHP)系统的运行。文中详细描述了系统架构,包括燃气轮机、电制冷机、锅炉以及风光机组等设备的协同工作。通过引入多目标优化,同时追求最低运行成本和最高综合能效。算法实现了自适应惯性权重调整、动态边界处理、非支配排序等关键技术,显著提升了优化性能。实验结果显示,相比传统方案,该方法能够节省15%以上的运营成本,并提高系统能效23.7%,减少碳排放18.2%。 适用人群:从事能源管理、电力系统优化的研究人员和技术人员,尤其是对MATLAB编程有一定基础的人士。 使用场景及目标:适用于需要进行冷热电联供系统优化的企业或研究机构,旨在寻找成本与能效之间的最佳平衡点,提供多种可供选择的优化方案,帮助决策者制定合理的运行策略。 其他说明:代码设计注重实用性,包含详细的注释和模块化的文件结构,便于理解和修改。此外,还提供了24小时调度结果的三维可视化展示,直观地反映了不同目标间的权衡关系。
内容概要:深度学习在医疗影像分析中展现出多维度的优势。首先,它能够自动特征提取并高效学习,通过多层神经网络自动识别医学影像中的复杂特征,无需人工干预,并能整合多种模态的数据,如CT、MRI、X光等,结合患者其他信息建立更全面的诊断模型。其次,在高精度诊断与效率提升方面,深度学习模型在多个任务中的准确率普遍超过90%,基于GPU加速的模型还能实现快速影像分析。第三,其具有复杂的场景适应性与创新应用,可以进行精准分割、三维重建以及长尾问题与罕见病的识别。第四,从临床价值来看,它减轻了医生的工作负担,促进了医疗资源的公平化。最后,深度学习还具有良好的可扩展性,支持跨学科研究,开源生态也有助于标准化建设。尽管存在数据标注依赖、模型可解释性和计算资源限制等问题,但深度学习的应用正逐步从辅助诊断向精准治疗、预后预测等全流程渗透。 适合人群:医疗影像研究人员、临床医生、AI医疗从业者。 使用场景及目标:①了解深度学习在医疗影像分析中的具体优势和技术细节;②探索深度学习应用于医疗影像分析的新思路和新方法;③评估深度学习技术在实际临床环境中的可行性。 其他说明:深度学习虽然具有诸多优势,但在实际应用中还需考虑数据标注质量、模型可解释性和计算资源等因素,同时应关注技术创新与伦理规范的平衡。
塘沽市民滨海旅游与生态意识的调查报告.doc
# 压缩文件中包含: 中文文档 jar包下载地址 Maven依赖 Gradle依赖 源代码下载地址 # 本文件关键字: jar中文文档.zip,java,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压最外层zip,再解压其中的zip包,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件;
UDQsinepwm_1p_UPFC
# 压缩文件中包含: 中文文档 jar包下载地址 Maven依赖 Gradle依赖 源代码下载地址 # 本文件关键字: jar中文文档.zip,java,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压最外层zip,再解压其中的zip包,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件;
3dmax插件LMExporter
内容概要:本文详细介绍了利用MATLAB实现多目标遗传算法(MOGA)解决分布式电源选址定容问题的方法。首先,通过建立33节点配电网模型,采用稀疏矩阵表示线路连接关系,简化了存储结构。接着定义了三个主要目标函数:降低网损、减少总容量成本以及提高电压稳定性。为了加快算法收敛速度,在种群初始化时引入了定向变异策略,并在交叉变异过程中加入局部搜索。此外,针对不同场景采用了前推回代法和牛顿拉夫逊法相结合的潮流计算方法,确保计算精度的同时提高了效率。最后,通过Pareto前沿曲线展示了多种可行解之间的权衡关系,帮助决策者根据实际情况做出最佳选择。 适用人群:从事电力系统规划、分布式能源管理和智能电网研究的专业人士和技术爱好者。 使用场景及目标:适用于需要综合考虑电网损耗、投资成本和电压稳定性的分布式电源选址定容项目。旨在寻找最优的电源安装位置及其容量配置方案,从而提升整个配电系统的性能。 其他说明:文中提到的技术细节如稀疏矩阵的应用、混合潮流计算方法等对于提高算法效率至关重要;而Pareto前沿曲线则有助于直观地理解和比较不同的设计方案。
1.版本:matlab2014/2019a/2024a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。
# 压缩文件中包含: 中文文档 jar包下载地址 Maven依赖 Gradle依赖 源代码下载地址 # 本文件关键字: jar中文文档.zip,java,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压最外层zip,再解压其中的zip包,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件;