rpc(remote procedure call)
不同java进程间的对象方法调用
一方称作服务端(server),一方称作客户端(client)。
server端提供对象,供客户端调用,被调用的对象的方法的执行发生在server端。
rpc是hadoop框架运行的基础。
下面是一个基于hadoop的rpc框架的例子:
服务端代码:
package rpc;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.ipc.RPC.Server;
public class MyServer {
public static final String SERVER_ADDRESS = "localhost";
public static final int SERVER_PORT = 12345;
/**
* @param args
*/
public static void main(String[] args) throws Exception{
/** 构造一个 RPC server.
* @param instance 实例中的方法会被客户端调用
* @param bindAddress 绑定的地址用于监听连接的到来
* @param port 绑定的这个端口用于监听连接的到来
* @param conf the configuration to use
*/
final Server server = RPC.getServer(new MyBiz(), SERVER_ADDRESS, SERVER_PORT, new Configuration());
server.start();
}
}
MyBiz类为真正被调用的类,它实现了MyBizable接口中定义的hello()方法,
getProtocolVersion()方法在MyBizable的父接口VersionedProtocol中定义;
package rpc;
import java.io.IOException;
public class MyBiz implements MyBizable{
/* (non-Javadoc)
* @see rpc.MyBizable#hello(java.lang.String)
*/
@Override
public String hello(String name){
System.out.println("我被调用了!");
return "hello" + name;
}
@Override
public long getProtocolVersion(String protocol, long clientVersion)
throws IOException {
return MyBizable.VERSION;
}
}
MyBizable继承 VersionedProtocol接口
package rpc;
import org.apache.hadoop.ipc.VersionedProtocol;
public interface MyBizable extends VersionedProtocol{
public static final long VERSION = 2345345234L;
public abstract String hello(String name);
}
下面是客户端代码:
package rpc;
import java.net.InetSocketAddress;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
public class MyClient {
/**
* @param args
*/
public static void main(String[] args) throws Exception{
/** 构造一个客户端的代理对象。 that implements the named protocol,
* talking to a server at the named address. */
final MyBizable proxy = (MyBizable)RPC.waitForProxy(
MyBizable.class,
MyBizable.VERSION,
new InetSocketAddress(MyServer.SERVER_ADDRESS, MyServer.SERVER_PORT),
new Configuration()
);
final String result = proxy.hello("world");
System.out.println("客户端调用结果"+result);
RPC.stopProxy(proxy);
}
}
启动服务端:
执行客户端,输出:
服务端输出:
总结:
1. 服务端提供的对象必须是一个接口,接口extends VersioinedProtocal
2. 客户端能够调用的对象中的方法必须位于对象的接口中
FileSystem与Namenode通过rpc通信过程,如图:
- 大小: 41 KB
- 大小: 5.9 KB
- 大小: 11.9 KB
- 大小: 34.9 KB
分享到:
相关推荐
为了方便开发者在Eclipse或MyEclipse这样的集成开发环境中高效地进行Hadoop应用开发,Hadoop-Eclipse-Plugin应运而生。这个插件允许开发者直接在IDE中对Hadoop集群进行操作,如创建、编辑和运行MapReduce任务,极大...
Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...
赠送jar包:hadoop-auth-2.5.1.jar; 赠送原API文档:hadoop-auth-2.5.1-javadoc.jar; 赠送源代码:hadoop-auth-2.5.1-sources.jar; 赠送Maven依赖信息文件:hadoop-auth-2.5.1.pom; 包含翻译后的API文档:hadoop...
Hadoop-Eclipse-Plugin-3.1.1是一款专为Eclipse集成开发环境设计的插件,用于方便地在Hadoop分布式文件系统(HDFS)上进行开发和调试MapReduce程序。这款插件是Hadoop生态系统的组成部分,它使得Java开发者能够更加...
Hadoop是大数据处理领域的一个关键框架,...通过正确安装、配置和使用这个压缩包中的组件,开发者可以在没有Linux环境的情况下,也能顺利地进行Hadoop相关的工作,这对于学习和理解Hadoop的分布式计算原理非常有帮助。
hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...
hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包
本文将针对"flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar.tar.gz"这一特定压缩包,探讨Flink 1.14.0如何与Hadoop 3.x实现兼容,并深入解析其背后的原理。 Flink 1.14.0是一个强大的流处理引擎,它提供了...
hadoop-eclipse-plugin-2.7.4.jar和hadoop-eclipse-plugin-2.7.3.jar还有hadoop-eclipse-plugin-2.6.0.jar的插件都在这打包了,都可以用。
赠送jar包:hadoop-yarn-server-resourcemanager-2.6.0.jar; 赠送原API文档:hadoop-yarn-server-resourcemanager-2.6.0-javadoc.jar; 赠送源代码:hadoop-yarn-server-resourcemanager-2.6.0-sources.jar; 赠送...
hadoop-eclipse-plugin-1.2.1hadoop-eclipse-plugin-1.2.1hadoop-eclipse-plugin-1.2.1hadoop-eclipse-plugin-1.2.1
Apache Flink 是一个流行的开源大数据处理框架,而 `flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip` 文件是针对 Flink 优化的一个特殊版本的 Hadoop 库。这个压缩包中的 `flink-shaded-hadoop-2-uber-2.7.5-10.0....
赠送jar包:hadoop-yarn-api-2.5.1.jar; 赠送原API文档:hadoop-yarn-api-2.5.1-javadoc.jar; 赠送源代码:hadoop-yarn-api-2.5.1-sources.jar; 赠送Maven依赖信息文件:hadoop-yarn-api-2.5.1.pom; 包含翻译后...
Hadoop-eclipse-plugin是Hadoop生态系统中的一个重要工具,它允许开发者使用Eclipse IDE直接在Hadoop集群上开发、测试和部署MapReduce程序。这个插件极大地简化了Hadoop应用程序的开发流程,使得Java开发者能够利用...
hadoop-mapreduce-examples-2.7.1.jar
在eclipse中搭建hadoop环境,需要安装hadoop-eclipse-pulgin的插件,根据hadoop的版本对应jar包的版本,此为hadoop3.1.2版本的插件。
hadoop-eclipse-plugin-3.1.3,eclipse版本为eclipse-jee-2020-03
# 解压命令 tar -zxvf flink-shaded-hadoop-2-uber-3.0.0-cdh6.2.0-7.0.jar.tar.gz # 介绍 用于CDH部署 Flink所依赖的jar包
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
Flink1.10.1编译hadoop2.7.2 编译flink-shaded-hadoop-2-uber