`
文章列表
DruidDataSource 这个数据源集成后有监控界面,对于SQL与项目的一些情况。   1 jar包     <dependency> <groupId>com.alibaba</groupId> <artifactId>druid</artifactId> <version>1.0.7</version> </dependency>  2  spring配置     <!-- JNDI DataSource for J2EE enviro ...
      1 线程池(减小线程创建的消耗) 2 synchroinzed:同一对象不同方法锁的互斥 3 reentrantLock(1 tryLock:对象是否已经被锁 2、公平锁的设置) 4 join方法:主线程等待子线程执行完毕 5 volatile:变量在不同线程间可见,通常用在开关变量和计数器变量等等 6 wait、notify、notifyAll:这些方法必须在synchronized块中调用 7 Callable、Future和FutureTask       
  Git :分布式代码管理库 SVN :集中式代码管理,通过yum或rpm直接安装就好    SVN服务端两种运行方式,1)独立服务器访问 2)借助apache等http服务来搭建SVN   修改后用diff 或egrap 来检查修改的地方 。  Jenkins:自动统一 部署测试    Mysql读写分离:  Amazon 数据文件远程同步:cdn 推送 ,inotify同步,resync同步   jira :任务跟踪 ,敏捷管理       
  主要方法:  show status , show profile ,检查慢查询日志    # 检测执行的sql,具体那个位置比较慢  SELECT * FROM phone_sts   #数据库版本 SELECT  VERSION();   #查询sql对资源的占用情况  SHOW profiles ;  #查询当前sql执行过程中的时间消耗  SHOW profile ;    SHOW profile  block io,cpu FOR  QUERY 31969              #检查profiling是否开启 SHOW VA ...

存储架构记载

  1 数据存储NFS系统 2 DRBD实现NFS文件高可用 3 文件读写分离,即系统实时的将文件分发到读服务器上,rsync+inotify 实现触发同步 (  1 小图片可以处理(200-300k),单个图片过大不行,     2 总容量过大几个T可能不行,     ...

JVM学习与调优

    博客分类:
  • java
      1 堆:存放数据   栈:存放逻辑 2 虚拟机: 栈溢出,则栈大小设置-Xss  默认值为1M 但一般会不到200k,所以会将默认值调整小点     Java虚拟机本身:-Xms,-Xmx,-Xss; 系统限制: /proc/sys/kernel/pid_max, /proc/sys/kernel/thread-max, max_user_process(ulimit -u), /proc/sys/vm/max_map_count。   3 堆内存溢出 强引用内存泄露:new 出来的对象是基本上是强引用,这种引用申请不到内存,则内存泄露 。     ...
  1 tomcat调优 (参数根据具体的服务器来配置) JAVA_OPTS="-Xms512m -Xmx3500m -XX:PermSize=128m -XX:MaxPermSize=256m -Xss200k -XX:+CMSClassUnloadingEnabled -XX:+UseConcMarkSweepGC"     2 Resin 调优设置:     <server-default>     <!--堆初始大小一般与最大大小一样-->     <jvm-arg>-Xms1024m</jvm-arg ...
  1 修改master的mysql ,my.cnf文件     注意以下信息必须放在mysqld下面否则不生效 #ID号, 为1时表示为Master,其中master_id必须为1到232–1之间的一个正整数值; server-id=1 #启用二进制日志; log-bin=mysql-bin #需要同步的二进制数据库名; binlog-do-db=my_test #不同步的二进制数据库名,如果不设置可以将其注释掉; binlog-ignore-db=information_schema binlog-ignore-db=mysql binl ...
  grant  super,reload on  my_test.* to forslave@192.168.142.137 identified by '123456';    1  %与localhost使用  有些时候(有些版本)'%'不包括localhost,要单独对@'localhost'进行赋值,分别对'%'和'localhost'授权解决。 有的时候使用Grant all on db.* t ...
  (1)安装编译源码需要的包 sudo apt-get install make cmake gcc g++ bison libncurses5-dev 2 解压mysql的gz包 3 tar -xvf .gz  编译配置: cmake . -DCMAKE_INSTALL_PREFIX=/usr/local/mysql -DMYSQL_DATADIR=/usr/local/mysql/data -DSYSCONFDIR=/etc -DWITH_INNOBASE_STORAGE_ENGINE=1 -DWITH_ARCHIVE_STORAGE_ENGINE=1 -DWITH_B ...
     awk 是数据处理工具,他将一行数据分成多个字段来处理;  默认:  awk用空格来分割(分隔符可以自定-F)每一行数据,分割后用$N来取出分割后的每一个字段,  用NF获取一共有多少字段(一般用这个可以过滤掉一些 ...

sort与uniq,wc使用

    sort  排序  -u 去除重复的行   -r降序(默认升序)  重定向输入文件        -n 按照数字排序        -t选项按照什么字符来分割    -k选项:分割后取第几个字段排序        -f 忽略大小写        -b 忽略前面的空白 ...
  1 涉及到的命令: hadoop-daemon.sh start namenode hadoop-daemon.sh start datanode yarn-daemon.sh start resourcemanager yarn-daemon.sh start nodemanager yarn node -list ./hdfs dfsadmin -refreshNodes ./hdfs dfsadmin -report hadoop job -list hadoop job -kill jobid //停止一个正在运行的job 启动数据负 ...
  1 Map 、Reduce和主类     package com.wzt.mapreduce.secondsort; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; ...
 以下作为自己的学习记录。 1 MapReduce中数据的整个处理流程。     Map输出数据->key排序并且计算partintion->Map本地所有数据数据Combiner-> shuffle中的自定义排序->自定义分组->reduce中数据汇总 例子: 一、 自定义Combiner使用 1 自定义Combiner    import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapred ...
Global site tag (gtag.js) - Google Analytics