`
文章列表
ubuntu 安装mysql和配置远程连接   1.安装MySQL sudo apt-get install mysql-server 如果要卸载以前的mysql版本 sudo apt-get autoremove --purge mysql-server-5.0 sudo apt-get remove mysql-server sudo apt-get autoremove mysql-server sudo apt-get remove mysql-common (非常重要)   2.配置MySQL 在Ubuntu下MySQL缺省是只允许本地访问的,如果你要其他 ...
从接触hadoop到目前,对hadoop的运行流程及原理做初步的总结:   hadoop中的核心hdfs和MR,hdfs为分布式文件系统,通过冗余备份的机制实现数据的安全存储,从数据集中计算到计算的分布式,很大程度上减少了数据的网络传输(计算后的结果数据也可能大于元数据),重要的是集中计算的任务呗分配到多台普通的PC上,负载均衡。   总结hadoop计算的流程:  Map阶段前,通过inputformat将元数据按照一定的规则进行inputsplit分割文件,大家知道,单个文件小于block设置的大小的话独占了一个block大小的空间,而一个block被分配给一个tasknode的一个 ...
                       64bit和32位系统安装oracle   1.去官网下载oracle11.2 64bit安装包     执行安装自不必多说。64bit和32位系统安装oracle没有打的区别,安装目录如:C:\app\Administrator\ 安装后默认相关服务已经开启。 如果没有开启,从我的电脑-属性-管理服务....中手动开启。   而客户端连接oracle时区别如下: 2.到Oracle网站下载Instant Client : http://www.oracle.com/technology/global/cn/software/ ...
本实例为javamail发送smtp邮件实例和常见问题解决 package mail;      import java.util.Date;   import java.util.Properties;   import javax.mail.Address;   import javax.mail.Authenticator;   import javax.mail.Message;   import javax.mail.PasswordAuthentication;   import javax.mail.Session;   import javax.mai ...
mahout 安装 软件准备:hadoop-0.20.2,mahout-0.4,ubuntu 11.10,jdk1.6  mahout的版本0.4只对hadoop-0.20.2版本兼容 如果fs版本为hadoop0.20.2 请下载mahout0.4版本   mahout是hadoop的一种高级应用。运行mahout需要提前安装好hadoop。hadoop的安装网 ...
(转)今天的進度是研究如何讓使用者透過網路來下載 HDFS 上的檔案,基本上這和壓縮一般的檔案沒什麼兩樣,直接透過 java 內建的 java.util.zip 套件就可以輕易做到了。唯一的差別,在這裡要用 Hadoop API 提供的 FSDatainputStream 來開啟檔案串流,然後逐一寫入到壓縮串流就可以完成檔案壓縮的目的。  而在操作流程的上,使用者會先選擇要下載的檔案,這個對 HTML 有基礎瞭解的開發人員不是什麼問題,利用 Form 加 Checkbox 就可以輕易的達成目的,當使用者選擇確認後,再送到 servlet 處理就可以了。 protec ...
这里有自己收集整理的关于SVN的东西,1——SVN基本使用手册 2——Subversion 错误信息一览表.3——svn的一些常见问题,后面我还会把文档供给大家下载,共同学习~   Subversion 错误信息一览表  注意:  1.不同的客户端(命令行,TortoiseSVN, AnkhSVN, Subclipse等)的出错信息可能稍有不同。  2.下面表格中的出错信息以 http://svn.moon.ossxp.com/svn/test 版本库做示例,仅供参考。  编号  出错信息  问题剖析  解决方案  1.  svn: Server sent unex ...
1. 运行hbase shell 时错误:ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times      解决办法:A:如果rootdir配置的是使用hdfs,检查是否hdfs服务进程没有打开,请启动hadoop。                          B:确认hadoop已经启动,请检查hbase和hadoop的版本是否不一致,将hbase/lib目录下的hadoop-core的jar文件删除,将hadoop目录下的hadoop-0.20.2-core.jar拷贝到hbase/ ...
测试环境下Hive总出问题,metastore的配置有问题。抽了点时间,把Hive的meta数据几种存储方式都配置了下。Hive的meta 数据支持以下三种存储方式,其中两种属于本地存储,一种为远端存储。远端存储比较适合生产环境。Hive官方wiki详细介绍了这三种方式,链接为:Hive Metastore 。 一、使用derby数据库存储元数据。 这种方式是最简单的存储方式,只需要在hive-default.xml或hive-site.xml做如下配置便可。 ? 01 02 03 04 05 06 07 08 09 10 11 12 ...
1.hive> show tables;FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Communications link failure Last packet sent to the server was 0 ms ago. NestedThrowables: com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link failure Last packet sent to the server wa ...
下载qq安装包:http://im.qq.com/qq/linux/download.shtml 安装:sudo dpkg -i QQ_fixed.deb   dpkg:处理 linuxqq_v1.0.2-beta1_i386.deb (–install)时出错: parsing file ‘/var/lib/dpkg/tmp.ci/control’ near line 7 package ‘linuxqq’: 版本字符串 v1.0.2-beta1 中有错误: version number does not start with digit 在处理时有错误发生: linuxqq_v ...
1配置文件中使用IP地址错误: (logs目录下的日志文件错误) 10/11/09 17:19:06 INFO mapred.JobClient: Task Id : attempt_201011091659_0001_m_000003_0, Status : FAILED Error initializing attempt_201011091659_0001_m_000003_0: java.lang.IllegalArgumentException: Wrong FS: hdfs ...
用虚拟光驱或解压软件解压出ISO文件中的wubi.exe到ISO文件同一目录下(比如要安装到E盘,则将三个文件一起放到E盘), 双击wubi.exe运行,弹出一个界面,选择一个系统盘以外的较空的盘, 设置用户名、密码,然后安装,重启之后选择ubuntu就会自动安装了
安装phpstudy2.0,安装完毕后可以访问测试的页面,重启apache后就报没有权限访问的提示,解决办法如下: 解决Apache下403 For bid den错误 找到配置文件C:\Program Files\phpStudy\Apache2\conf\httpd.conf <Directory />     Options FollowSymLinks     AllowOverride None     Order deny,allow     Deny from all </Directory>由于配置了php后 ...
1. 结束实例错误 Configuration con=new Configuration(); ProcessEngine pe=con.buildProcessEngine(); pe.getRepositoryService().createDeployment()         .addResourceFromClasspath("org/jbpm/examples/end/state/process.jpdl.xml")         .deploy(); ExecutionService  executionService=pe. ...
Global site tag (gtag.js) - Google Analytics