- 浏览: 43265 次
- 性别:
- 来自: 广州
最新评论
文章列表
个人来谈谈软件行业,绝对不是心灵鸡汤,句句肺腑之言!程序员吃的就是青春饭,毕竟没有几个能像java之父 詹姆斯.高斯林 那样能坚持岗位到这么高的年纪,不过看报道他最近也在找工作。前段时间华为决定裁掉35岁以上的 ...
安装环境与版本:
Linux版本:centos 7 (只有一台虚拟机,ip为192.168.32.133)
redis版本:redis-3.2.4
Ruby版本:2.0.0p648
下载redis安装文件:
wget http://download.redis.io/releases/redis-3.2.4.tar.gz
解压安装文件:
最近在用jdk相关辅助工具进行tomcat导致cpu异常高的问题进行分析,今天抽空写一下jconsole与jvisualvm远程监控tomcat配置,后续再写具体的监控分析博文(包括jstack的使用后面抽时间都会写上),jconsole与jvisualvm远程监控tomcat配置具体步骤如下:
登录到tomcat部署的linux服务器上
编辑tomcat/bin/catalina.sh,添加远程配置,配置位置如下图:
配置项值为:
对于商品推荐模型,在上一家公司时,就当做课题进行了研究、学习,并取得一定的成果,现在就发博文贴出来,供后面再回头看看,也供大伙参考。
商品推荐模型可以分为两种:基于内容推荐、协同过滤推荐
一:基于内容的推荐
举个简单的小例子,我们已知道用户u1喜欢的电影是A,B,C
目前再来说servlet3,确实有点过时了,毕竟servlet3已经推出都好写年了,本来想自己在复习的过程中重新写一篇博文,但是看了看网上已有的博文,基本都已经写得很全面了,所以我只是进行了学习,博文进行了引用。
博文 ...
读写分离
操作系统:CentOS7 主服务器master:192.168.32.130 从服务器slave:192.168.32.129 mysql proxy服务器:192.168.32.132
1)读写分离原理
通过mysql proxy进行读写分离,整个的架构图如上(图片来源于网络),mySQL Proxy是一个处于你的Client端和MySQL server端之间的简单程序,它
环境描述
操作系统:CentOS7 主服务器master:192.168.32.130 从服务器slave:192.168.32.129
主从复制
前面我已经写了关于centos7上面配置mysql数据库的文章了,这里就直接跳过mysql安装。
1)主从复制原理
(
近期复习了下linux上安装mysql数据库,整理了一个安装文档记录下来,供自己以后忘记了再看看。打算先安装mysql、然后再搭建一个mysql集群、再则是mysql数据库的读写分离。今天只是第一篇,后续会继续更新mysql集群和mysql数据库读写分离的博文。
具体步骤:
通过wget命令从官网下载所需的mysql安装包
wget http://dev.mysql.com/get/mysql57-community-release-el7-8.noarch.rpm
最近接触新的项目,项目中远程接口用的是rest wink,以前项目对于这种需求基本都是webservice去实现的,今天特意对rest wink进行了理论研究和实际编码工作,所以记录记录下来以便后面查阅。理论部分看到一篇好文章 ...
聊到socket编程,我脑子第一反应就是activeMq、及JMS的其他应用底层都是基于socket实现的,当然我们日常用的QQ、微信等通讯工具也是基于socket实现的(其实我们工作中常用到的log4j底层也用到了socket),由于socket应用面如此广泛、所以我今天翻阅了大量网上资料、并自己写了简单的例子进行学习,下面聊聊我的学习笔记和心得。
当然在今天学习之前我就有使用过socket进行项目编码的经验了,记得当初在给某一线城市房管局做项目时,档案馆的档案都是基于PDA服务器进行存管的,PDA对外提供了socket服务,所以当初我就用的socket客户端 ...
前面我已经写了centos安装nginx服务、及centos安装部署多个tomcat应用服务器的文章。这两篇文章都是单独部署的,nginx和tomcat之间并无联动关系,下面我将记录下nginx代理、负载均衡多个tomcat的配置和部署。
准备工作:
nginx服务器能正常单独运行
机器学习语言及朴素贝叶斯算法
- 博客分类:
- 大数据
最为广泛的两种分类模型是决策树模型(Decision Tree Model)和朴素贝叶斯模型(Naive Bayesian Model,NBM)。
朴素贝叶斯分类器基于一个简单的假定:给定目标值时属性之间相互条件独立。
通过以上定理和“朴素”的假定,我们知道 ...
日常工作中我们往往面对的数据都是海量的文件数据,我们如何快速通过spark将文件导入到hbase库中,我这写了一个简单的例子仅供参考,实际上数据是需要经过清洗才能放入到hbase库中的。
由于数据文件内容涉及到公司实际项目,不便贴出,此文着重spark提出数据、清洗、入hbase库这个逻辑的实现,scala写的代码比较精简,代码如下:
ParseClient.java主要实现文件加载、清洗、入库的工作:
package main.scala
import org.apache.spark.SparkConf
import org.apache. ...
一:事前准备工作:
1.最少4台服务器,当然也可以为虚拟机
2.hadoop、hbase、spark、jdk、zookeeper的安装包(需要版本都是相互兼容的,这个可以从官网看到)
3.系统为centos7
如果是新学者可以看我另一篇关于单节点大数据环境部署和安装的文章
二:Linux系统配置
更改linux名称
hostnamectl set-hostname host1(host1代表需要修改的主机名称) 修改后重启系统生效
配置/etc/hosts文件
192.168.23.128
首先你得自己通过U盘刻制了U盘启动安装器,然后才能按照下面步骤进行安装和配置。
U盘启动时设置
F12进入安装后需要选择第二个,然后tab键修改root路径为:
vmlinuz initrd=initrd.img inst.stage2=hd:/dev/sdb4 quiet
root root1102
admin admin1102
第一次开机设置
开机后提示以下信息
Initial setup of CentOS Linux 7 (core)
1) [x] Creat user 2) [!] License information
(no user w ...