- 浏览: 2204578 次
- 性别:
- 来自: 北京
-
文章分类
- 全部博客 (682)
- 软件思想 (7)
- Lucene(修真篇) (17)
- Lucene(仙界篇) (20)
- Lucene(神界篇) (11)
- Solr (48)
- Hadoop (77)
- Spark (38)
- Hbase (26)
- Hive (19)
- Pig (25)
- ELK (64)
- Zookeeper (12)
- JAVA (119)
- Linux (59)
- 多线程 (8)
- Nutch (5)
- JAVA EE (21)
- Oracle (7)
- Python (32)
- Xml (5)
- Gson (1)
- Cygwin (1)
- JavaScript (4)
- MySQL (9)
- Lucene/Solr(转) (5)
- 缓存 (2)
- Github/Git (1)
- 开源爬虫 (1)
- Hadoop运维 (7)
- shell命令 (9)
- 生活感悟 (42)
- shell编程 (23)
- Scala (11)
- MongoDB (3)
- docker (2)
- Nodejs (3)
- Neo4j (5)
- storm (3)
- opencv (1)
最新评论
-
qindongliang1922:
粟谷_sugu 写道不太理解“分词字段存储docvalue是没 ...
浅谈Lucene中的DocValues -
粟谷_sugu:
不太理解“分词字段存储docvalue是没有意义的”,这句话, ...
浅谈Lucene中的DocValues -
yin_bp:
高性能elasticsearch ORM开发库使用文档http ...
为什么说Elasticsearch搜索是近实时的? -
hackWang:
请问博主,有用solr做电商的搜索项目?
Solr中Group和Facet的用法 -
章司nana:
遇到的问题同楼上 为什么会返回null
Lucene4.3开发之第八步之渡劫初期(八)
基础依赖环境
Apache Hadoop2.7.1
Apache Spark1.6.0
Apache Hive1.2.1
Apache Hbase0.98.12
(1)提前安装好scala的版本,我这里是2.11.7
(2)下载spark-1.6.0源码,解压进入根目录编译
(3)dev/change-scala-version.sh 2.11
修改pom文件,修改对应的hadoop,hbase,hive的版本
执行编译支持hive功能的spark
(4)mvn -Pyarn -Phive -Phive-thriftserver -Phadoop-2.7.1 -Dscala-2.11 -DskipTests clean package
三种测试方式:
bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://h1:7077 examples/target/spark-examples_2.11-1.6.0.jar 100 bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/target/spark-examples_2.11-1.6.0.jar 10 bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-client examples/target/spark-examples_2.11-1.6.0.jar 10
(一):命令行Spark SQL接口调试
编译成功后,将提前安装好的hive/conf/hive-site.xml拷贝到spark的conf/目录下,
执行,spark-sql的启动命令,同时使用--jars 标签把mysql驱动包,hadoop支持的压缩包,以及通过hive读取hbase相关的jar包加入进来,启动
bin/spark-sql --jars lib/mysql-connector-java-5.1.31.jar, lib/hadoop-lzo-0.4.20-SNAPSHOT.jar, /ROOT/server/hive/lib/hive-hbase-handler-1.2.1.jar, /ROOT/server/hbase/lib/hbase-client-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-common-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-server-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-hadoop2-compat-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/guava-12.0.1.jar, /ROOT/server/hbase/lib/hbase-protocol-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/htrace-core-2.04.jar
(二):Intellj IDEA15.0里面代码调试:
sbt的依赖:
//下面不需要使用的依赖,大家可根据情况去舍 name := "scala-spark" version := "1.0" scalaVersion := "2.11.7" //使用公司的私服,去掉此行则使用默认私服 resolvers += "Local Maven Repository" at "http://xxxx:8080/nexus/content/groups/public/" //使用内部仓储 externalResolvers := Resolver.withDefaultResolvers(resolvers.value, mavenCentral = false) //Hadoop的依赖 libraryDependencies += "org.apache.hadoop" % "hadoop-client" % "2.7.1" //% "provided" //Habse的依赖 libraryDependencies += "org.apache.hbase" % "hbase-client" % "0.98.12-hadoop2" // % "provided" libraryDependencies += "org.apache.hbase" % "hbase-common" % "0.98.12-hadoop2" //% "provided" libraryDependencies += "org.apache.hbase" % "hbase-server" % "0.98.12-hadoop2" //% "provided" //Spark的依赖 libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.6.0" //% "provided" //Spark SQL 依赖 libraryDependencies += "org.apache.spark" % "spark-sql_2.11" % "1.6.0" //% "provided" //Spark For Hive 依赖 libraryDependencies += "org.apache.spark" % "spark-hive_2.11" % "1.6.0" //java servlet 依赖 libraryDependencies += "javax.servlet" % "javax.servlet-api" % "3.0.1" //% "provided"
scala主体代码
def main(args: Array[String]) { //设置用户名 System.setProperty("user.name", "username"); System.setProperty("HADOOP_USER_NAME", "username"); //此处不需要设置master,方便到集群上,能测试yarn-client , yarn-cluster,spark 各种模式 val sc=new SparkConf().setAppName("spark sql hive"); val sct=new SparkContext(sc); //得到hive上下文 val hive = new org.apache.spark.sql.hive.HiveContext(sct); //执行sql,并打印输入信息 hive.sql("show tables ").collect().foreach(println); //关闭资源 sct.stop(); }
写好代码,在win上运行,有bug,/tmp/hive没有执行权限https://issues.apache.org/jira/browse/SPARK-10528
所以建议还是拿到linux上执行,而且win上只能调standalone模式,不能调yarn-cluster和yarn-client模式。
记住一个血的bug,在代码里的SparkConf()一定不要setMaster("")的值,否则你粗心了,在集群上执行各种模式时候会
出现莫名其妙的bug
//写代码方式,查询
//yarn集群模式 bin/spark-submit --class com.tools.hive.SparkHive --master yarn-cluster --files conf/hive-site.xml --jars lib/datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar scala-spark_2.11-1.0.jar //这是主体的jar,不用跟--jars放在一起,否则会有问题 //yarn客户端模式 bin/spark-submit --class com.tools.hive.SparkHive --master yarn-client --files conf/hive-site.xml --jars lib/datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar scala-spark_2.11-1.0.jar //这是主体的jar,不用跟--jars放在一起,否则会有问题 //spark alone模式 bin/spark-submit --class com.tools.hive.SparkHive --master spark://h1:7077 --files conf/hive-site.xml --jars lib/datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar scala-spark_2.11-1.0.jar //这是主体的jar,不用跟--jars放在一起,否则会有问题
以Spark SQL 方式查询,不一定非得让你写代码,这就是sql的魅力,spark sql也能使用sql通过hive的元数据,查询hdfs数据或者hbase表等
//yarn-cluster集群模式不支持spark sql
Error: Cluster deploy mode is not applicable to Spark SQL shell.
//yarn客户端模式 bin/spark-sql --master yarn-client --files conf/hive-site.xml --jars lib/datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar -e "select name , count(1) as c from info group by name order by c desc ;" //spark alone模式 bin/spark-sql --master spark://h1:7077 --files conf/hive-site.xml --jars lib/datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar -e "select name , count(1) as c from info group by name order by c desc ;"
Spark SQL + Hive + Hbase方式集成
//yarn客户端模式 bin/spark-sql --master yarn-client --files conf/hive-site.xml --jars lib/ datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar, lib/hadoop-lzo-0.4.20-SNAPSHOT.jar, /ROOT/server/hive/lib/hive-hbase-handler-1.2.1.jar, /ROOT/server/hbase/lib/hbase-client-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-common-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-server-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-hadoop2-compat-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/guava-12.0.1.jar, /ROOT/server/hbase/lib/hbase-protocol-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/htrace-core-2.04.jar -e "select * from dong limit 2 ;" //spark alone模式 bin/spark-sql --master spark://h1:7077 --files conf/hive-site.xml --jars lib/ datanucleus-api-jdo-3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java-5.1.31.jar, lib/hadoop-lzo-0.4.20-SNAPSHOT.jar, /ROOT/server/hive/lib/hive-hbase-handler-1.2.1.jar, /ROOT/server/hbase/lib/hbase-client-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-common-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-server-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/hbase-hadoop2-compat-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/guava-12.0.1.jar, /ROOT/server/hbase/lib/hbase-protocol-0.98.12-hadoop2.jar, /ROOT/server/hbase/lib/htrace-core-2.04.jar -e "select count(*) from dong ;"
总结:
使用某个spark命令提交任务时,如果对参数比较模糊,可以使用
bin/spark-xxx -h命令查看,参数介绍
另外spark 整合 hive关联hbase的时候或者spark整合hive 的时候,会出现很多问题,最常见的就是 :
(1)mysql驱动包找不到
(2)datanucleus相关的类找不到
(3)运行成功,而没有结果
(4).....
Spark SQL整合Hive时,一定要把相关的jar包和hive-site.xml文件,提交到 集群上,否则会出现各种莫名其妙的小问题,
经过在网上查资料,大多数的解决办法在Spark的spark-env.sh里面设置类路径,经测试没有生效,所以,还是通过--jars 这个参数来提交依赖的jar包比较靠谱。
参考链接:
winuitls.exe下载地址,如果再win上想远程连接spark alone集群提交任务,可能要用到:
http://teknosrc.com/spark-error-java-io-ioexception-could-not-locate-executable-null-bin-winutils-exe-hadoop-binaries/
http://zengzhaozheng.blog.51cto.com/8219051/1597902
有什么问题 可以扫码关注微信公众号:我是攻城师(woshigcs),在后台留言咨询。
本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享,也是一个温馨的技术互动交流的小家园

评论
5 楼
qindongliang1922
2016-01-22
DARKER_ye 写道


4 楼
qindongliang1922
2016-01-22
www.myydan.cn 写道


3 楼
DARKER_ye
2016-01-22

2 楼
www.myydan.cn
2016-01-22

1 楼
www.myydan.cn
2016-01-22

发表评论
-
关于Hbase多版本存储的一个注意点
2018-04-19 11:39 1682我们知道hbase是一个多版本的管理系统,在0.96的版本之前 ... -
Scala里面的排序函数的使用
2018-01-09 20:20 2669排序方法在实际的应用场景中非常常见,Scala里面有三种排序 ... -
在Scala里面如何使用元组
2018-01-08 22:05 940元组在Scala语言中是一 ... -
Spark如何读取一些大数据集到本地机器上
2018-01-04 21:07 1700最近在使用spark处理分 ... -
使用Spark SQL的临时表解决一个小问题
2017-12-28 18:27 2474最近在使用spark处理一个业务场景时,遇到一个小问题,我在 ... -
Spark任务两个小问题笔记
2017-12-26 19:52 1668今天在用spark处理数据 ... -
Spark中foreachPartition和mapPartitions的区别
2017-12-25 21:19 3343spark的运算操作有两种类型:分别是Transformat ... -
Spark Streaming优雅的关闭策略优化
2017-12-07 19:26 4178前面文章介绍了不少有关Spark Streaming的off ... -
kafka版本不一致导致的一个小问题(二)
2017-12-04 21:37 8594背景介绍: 我们公司的实时流项目现在用的spark stre ... -
谈谈如何优雅的关闭正在运行中的Spark Streaming的流程序
2017-11-30 19:20 2326前面的文章,已经简 ... -
如何管理Spark Streaming消费Kafka的偏移量(三)
2017-11-28 23:41 5244前面的文章已经介绍了在spark streaming集成kaf ... -
理解Spark的运行机制
2017-11-23 21:52 1265Spark生态系统目前已经非常成熟了,有很多类型的任务都可以使 ... -
如何管理Spark Streaming消费Kafka的偏移量(二)
2017-11-16 19:30 4762上篇文章,讨论了在spar ... -
如何管理Spark Streaming消费Kafka的偏移量(一)
2017-11-14 20:42 4121最近工作有点忙,所以更新文章频率低了点,在这里给大家说声抱 ... -
在scala中使用spark sql解决特定需求(2)
2017-07-21 16:00 2317接着上篇文章,本篇来 ... -
在scala中使用spark sql解决特定需求
2017-07-20 19:53 1057spark sql一个强大之处就 ... -
理解数据仓库中星型模型和雪花模型
2017-07-06 17:29 4464在数据仓库的建设中, ... -
Spark如何在一个SparkContext中提交多个任务
2017-07-04 19:09 6792在使用spark处理数据的时候,大多数都是提交一个job执行, ... -
Spark如何读取Hbase特定查询的数据
2017-06-29 21:42 4468最近工作需要使用到Spark操作Hbase,上篇文章已经写 ... -
如何使用scala+spark读写hbase?
2017-06-12 19:48 3466最近工作有点忙,所以文章更新频率低了点,希望大家可以谅解,好 ...
相关推荐
SnappyData是一款开源的内存计算数据平台,它融合了SQL引擎、Spark和Apache Geode,旨在提供高性能的事务处理和分析能力。SnappyData能够处理实时流数据和历史数据,并支持SQL查询和事务处理,使其成为构建现代数据...
文案: “CSDN博客之星”是技术人的闪耀舞台,汇聚创新与分享的力量!通过参与评选,你不仅能提升个人品牌,还能链接行业精英,拓展技术视野。活动见证无数博主的成长,助力优质内容传播。无论你是技术爱好者还是资深从业者,这里都能让你展现才华,加速成长。原创干货、粉丝互动、持续输出——掌握这些秘诀,让你的博客脱颖而出,成为下一个“博客之星”!
mpls-ospf全all
内容概要:本文详细介绍了基于三菱FX3U PLC的四仓位配方控制系统,重点讲解了如何利用ST结构化文本和梯形图两种编程方式实现工业级配方管理。主要内容包括配方存储采用结构体数组的方式,使配方参数管理更加高效;配方执行过程中使用ST语言实现复杂的三段速控制逻辑,确保精确配料;通信方面通过FX3U-485ADP模块进行Modbus通信,保障数据传输的实时性和稳定性;报警系统采用状态码机制,便于快速定位和解决问题;此外,还涉及了分期付款功能以及暂停续料功能的具体实现方法。整个系统经过实际项目的验证,能够稳定应对每日200+批次的生产任务。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是对PLC编程有一定了解并希望深入掌握ST结构化文本和梯形图混合编程技巧的人群。 使用场景及目标:适用于需要高精度、高效率配方管理的工业生产线,如食品加工等行业。主要目标是提高生产效率,减少人为错误,增强系统的可靠性和易维护性。 其他说明:文中提供了大量具体的代码片段和实际案例,有助于读者更好地理解和应用所介绍的技术。同时强调了全中文变量命名的优势,使得新入职员工也能迅速上手。
内容概要:本资源包含2023年第十四届蓝桥杯嵌入式组省赛第一套模拟题的完整实现代码,涵盖STM32CubeMX工程配置、HAL库开发、传感器数据采集、LCD显示控制、按键中断处理等核心模块。配套代码注释详细,包含模块化工程结构设计思路及竞赛评分要点解析。 适用人群:电子类专业本科/高职学生、蓝桥杯嵌入式组参赛选手、STM32开发初学者、嵌入式系统设计爱好者。 使用场景及目标:适用于蓝桥杯赛前专项训练、嵌入式系统开发实战演练、STM32HAL库应用学习。通过本资源可掌握竞赛级项目开发规范,提升外设驱动开发能力,理解实时数据采集与界面交互的实现逻辑。 其他说明:代码基于STM32G4系列开发板实现,包含多任务调度框架设计,涉及ADC/DAC、TIM定时器、GPIO中断等关键外设操作。建议配合官方开发板使用,资源包含硬件连接示意图及调试排错指南,注意部分外设配置需根据实际硬件调整。
内容概要:本文详细介绍了如何利用MATLAB构建一个能够模拟8字漂移动态特性的车辆模型。首先,通过设定车辆的基本参数(如质量、轴距、转动惯量)以及控制器参数(如比例系数、滑移率微分系数),并采用双频正弦波叠加的方法生成8字轨迹。接着,深入探讨了轮胎滑移率的非线性特性及其对横摆角速度的影响,展示了如何通过引入迟滞效应使仿真的物理行为更加逼真。此外,文中还讨论了转向增益、扭矩分配等关键因素对漂移稳定性和轨迹精度的作用,并提供了具体的代码实现方法。最后,通过轨迹可视化工具验证了模型的有效性。 适合人群:对汽车动力学感兴趣的研究人员、工程师以及有一定MATLAB编程基础的学习者。 使用场景及目标:适用于研究车辆动态性能、开发自动驾驶系统或进行赛车运动分析等领域。主要目标是帮助读者掌握车辆动力学建模的基本原理和技术手段,同时提高其解决复杂工程问题的能力。 其他说明:文中不仅给出了完整的代码示例,还分享了许多实用的小贴士,如如何调整参数以获得更好的仿真效果,以及如何优化代码结构以提升运行效率。对于希望深入了解车辆控制系统设计的人来说,这是一份不可多得的学习资料。
Java项目基于ssm框架的课程设计,包含LW+ppt
Delphi 12.3控件之WebView2Loader.rar
内容概要:本文详细介绍了网页开发的基础技术,涵盖HTML、CSS、JavaScript、JSON和Ajax五个方面。首先讲解了HTML的历史和发展,重点介绍了HTML标签及其用法;接着阐述了CSS的导入方式、选择器和样式设置;随后深入探讨了JavaScript的基础语法、内置对象和DOM操作;再者解释了JSON的语法和数据类型,强调其在数据交换中的重要性;最后介绍了Ajax技术及其应用场景,展示了如何使用原生XMLHttpRequest、jQuery和Axios进行异步请求。 适合人群:适用于初学者和有一定经验的前端开发人员,帮助他们全面掌握网页开发的基础知识和技术。 使用场景及目标:① 初学者可以通过本文快速入门HTML、CSS和JavaScript,搭建简单的网页;② 已有基础的开发者可以深入了解JSON和Ajax,提升数据处理和异步交互的能力。 阅读建议:本文内容详尽,建议按章节逐步学习,结合实例代码进行练习,以便更好地理解和掌握各项技术要点。
计算机科学与技术- 软件开发工具 培训资料
内容概要:本文深入剖析了FX3U PLC控制器的硬件架构及其嵌入式开发细节。首先介绍了控制器的整体规格,如尺寸、主控芯片(STM32F103VCT6)、电源设计等。接着详细讲解了数字量输入输出模块的设计,包括继电器输出和光耦隔离的应用。对于模拟量处理部分,则探讨了ADC的校准与抗干扰措施。此外,通讯模块的设计也是重点之一,涵盖了CAN总线、RS485等接口的具体实现方法。最后,文章还提到了开发资料的完整性以及一些优化建议。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是对PLC控制器和嵌入式开发感兴趣的读者。 使用场景及目标:帮助读者理解FX3U PLC控制器的工作原理,掌握其硬件设计特点和嵌入式编程技巧,适用于小型产线控制系统或智能仓储系统的开发。 其他说明:文中提供了大量源代码片段,便于读者更好地理解和实践相关知识点。同时强调了在实际应用中需要注意的问题,如电磁兼容性和信号完整性等。
Java项目基于ssm框架的课程设计,包含LW+ppt
内容概要:本文详细介绍了基于MATLAB/Simulink的三电平逆变器SVPWM(空间矢量脉宽调制)控制系统的构建方法。首先,文章讲解了NPC(中点箝位)结构的三电平逆变器主电路搭建步骤,包括IGBT模块的选择和参数配置。然后深入探讨了SVPWM算法的具体实现,涵盖扇区判断、矢量合成、作用时间计算以及开关状态选择等关键技术点。此外,还讨论了电容电压平衡控制、死区时间和载波生成等重要细节。最后,通过FFT分析验证了系统的性能,展示了良好的波形质量和低谐波失真率。 适用人群:电力电子工程师、自动化专业学生、从事逆变器研究的技术人员。 使用场景及目标:适用于希望深入了解三电平逆变器SVPWM控制原理的研究人员和技术开发者。目标是掌握如何利用MATLAB进行高效、精确的逆变器仿真建模,优化波形质量,减少谐波失真。 其他说明:文中提供了大量实用的MATLAB代码片段,帮助读者更好地理解和实践相关理论。同时提醒了一些常见的仿真陷阱,如求解器选择不当可能导致的问题。强调了动手实践的重要性,鼓励读者自行搭建模型以加深理解。
Delphi 12.3控件之nrCommLib Pro v9.54 Full Source for D12.7z
项目已获导师指导并通过的高分毕业设计项目,可作为课程设计和期末大作业,下载即用无需修改,项目完整确保可以运行。 该系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值。 项目都经过严格调试,确保可以运行!可以放心下载
notepad–是一个国产跨平台、轻量级的文本编辑器,是替换notepad++的一种选择。其内置强大的代码对比功能,让你丢掉付费的beyond compare。
Delphi 12.3控件之TMS MQTT v2.0.8.0.7z
内容概要:本文全面介绍了层次聚类算法,一种无监督学习方法,广泛应用于数据挖掘、机器学习和模式识别。文章首先阐述了聚类算法的基础理论,特别是层次聚类的独特之处——生成树状图展示数据点之间的相似性关系。随后,详细讲解了凝聚型层次聚类的工作原理,包括初始化、合并和重复步骤,并探讨了多种距离度量方法(如单链、完全链、平均链和重心法)。文中通过Python代码实例展示了如何使用SciPy库进行层次聚类,并生成树状图。此外,文章还讨论了层次聚类在生物信息学、图像分割和文本数据分析中的具体应用场景,以及评估聚类质量的方法(如轮廓系数和Calinski-Harabasz指数)。最后,文章总结了层次聚类的优点和缺点,并展望了未来的优化方向和挑战。 适合人群:数据科学家、机器学习工程师、研究人员和其他对聚类算法感兴趣的从业者。 使用场景及目标:①理解层次聚类的基本原理和工作流程;②掌握如何使用Python实现层次聚类;③学会评估聚类质量和优化聚类性能;④了解层次聚类在不同领域的应用。 其他说明:本文不仅提供了理论知识,还包括丰富的代码示例,使读者能够在实践中加深对层次聚类的理解。同时,文章还探讨了层次聚类
本文基于58安居客发布的《百万房地产经纪人生存报告》,详细分析了中国房地产经纪人的生存状况和发展趋势。报告显示,房地产经纪人呈现出年轻化、长期化的趋势,95后从业者超过三成,八成经纪人从业时长超过1年。从业人员性别分布以男性为主,但女性经纪人比例显著增加。学历水平逐年提升,大专及以上学历占比过半。获客渠道主要集中在网络端口和老客户介绍,疫情期间,VR技术和私域流量成为重要手段。多数经纪人收入受疫情影响减少,但仍对未来市场保持信心。此外,经纪人在工作地置业的比例较高,显示出较强的职业稳定性。 适用人群:房地产行业从业者、研究机构、政府相关部门、投资者。 使用场景及目标:帮助了解中国房地产经纪人的职业特点和发展趋势,为相关政策制定、企业管理及个人职业规划提供参考。 报告数据来源于58安居客房产研究院,涵盖2022年4月至5月期间的数据,反映了当时市场环境下经纪人的实际情况。