`
hz_chenwenbiao
  • 浏览: 1007941 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

sparkweb安装(转)

    博客分类:
  • IM
阅读更多

这里所说的安装sparkweb,准确的来讲是red5的应用!

 

1、下载red5:  下载地址http://www.igniterealtime.org/projects/openfire/plugins-beta.jsp

 

2、将red5.war上传到openfire安装目录下plugins下

 

3、打开“服务器设置”——〉“HTTP绑定”,将两个选项分别启用及enabled。然后注意HTTP绑定的端口,默认是7070。保存设置后重起openfire

 

4、登录地址:http://[openfire的IP]:7070/red5/sparkweb/

分享到:
评论
3 楼 zengqiang1217 2012-06-18  
怎么没人回答呢?我也遇到404。难道真的是red5不支持openfire3.7.1的版本?
2 楼 Da嗒_Sunny 2012-03-01  
同楼上  为什么是404????
1 楼 hllyy666 2011-08-03  
Problem accessing /red5/sparkweb/. Reason:

    Not Found

相关推荐

    1Spark生态和安装部署

    ### Spark 生态与安装部署详解 #### 一、Spark 是什么? Spark 是一款开源的大规模数据处理框架,它能够提供高效的数据处理能力,特别是在大规模数据集上的处理速度远远超过传统的 MapReduce 框架。Spark 的核心...

    spark个人总结.doc

    - 使用Spark的Web UI监控作业运行状态,分析Stage的运行时间和Task的延迟,找出性能瓶颈。 - 使用日志系统跟踪错误和警告,进行问题定位。 以上是Spark性能调优的一些主要方面,理解并应用这些策略能显著提升...

    基于Spark的新闻推荐系统,包含爬虫项目、web网站以及spark推荐系统.zip

    描述中提到的“包含爬虫项目、web网站以及Spark推荐系统”意味着这个项目涵盖了三个主要部分:数据采集、前端展示和后台推荐算法。爬虫项目负责从互联网上抓取新闻数据,web网站用于用户交互和展示推荐结果,而Spark...

    spark部署和基础代码的编写

    启动Spark集群后,你可以通过Web UI监控集群状态。 编写Spark基础代码时,首先要创建一个SparkContext,这是所有Spark操作的起点。然后,可以使用DataFrame或RDD进行数据操作,包括数据加载、转换和保存。例如,...

    Spark运维实战

    Spark运维实战是一本深入探讨Apache Spark安装、配置、监控和调优的专业书籍。它依据官方文档和源码详细解析了如何精通Spark的运维过程。在开始学习Spark之前,了解其生态环境是非常重要的。Apache Spark是一个开源...

    code: spark for python developer

    1. 安装PySpark:通过pip安装pyspark,然后配置环境变量,包括SPARK_HOME、HADOOP_CONF_DIR等。 2. 创建SparkSession:这是访问Spark的主要入口点,可以创建DataFrame和RDD,执行SQL查询等。 三、PySpark数据读写 1...

    spark-pdi:Apache Spark 运行转换作为 Spark 作业的一部分的函数

    4. **文档**:可能包括 README 文件或其他形式的文档,解释如何安装、配置和使用 Spark-PDI。 使用 Spark-PDI 的过程大致如下: 1. **创建 PDI 转换**:在 PDI 工具中设计和创建数据转换,包括各种数据清洗、转换和...

    Spark大数据技术与应用教学大纲.pdf

    - Sparkweb监控页面:了解如何通过Web界面监控Spark作业的运行状态。 3. 使用Python开发Spark应用: - Python编程语言:探讨Python的特点,及其在人工智能领域的应用。 - PySpark:理解PySpark作为Spark的Python...

    spark-3.1.3-bin-hadoop3.2.tgz

    在解压并安装"spark-3.1.3-bin-hadoop3.2.tgz"后,你需要配置环境变量,如SPARK_HOME,然后可以通过启动Master和Worker节点来建立Spark集群。对于单机测试,可以使用本地模式。使用Spark时,你可以编写Python、Scala...

    hadoop&spark使用教程.docx

    - 利用Spark Web UI监控作业执行状态。 - 分析性能瓶颈,调整配置参数以优化程序性能。 **五、学习Spark生态系统组件** - **Spark Streaming** - 学习实时数据流处理框架Spark Streaming的工作原理。 - 实践...

    Apache Spark源码走读之2 -- Job的提交与运行

    搭建步骤主要包括下载Spark二进制包,安装Scala、sbt和Java,并通过配置文件修改环境变量,如将$SPARK_HOME/conf目录下的spark-env.sh.template重命名为spark-env.sh,并设置相应的环境变量,以便正确启动master和...

    Cloudera hadoop spark培训题

    9. 在Spark应用UI中查看作业和阶段:Spark UI提供了一个Web界面,用于查看正在运行的应用的作业、阶段、任务和性能指标。 10. 持久化RDD:持久化是Spark用来优化性能的重要手段,它可以帮助保存中间数据,避免重复...

    Smart_City:第二名优胜者项目@ 2017年第二届Serres Hackathlon-使用MongoDB和RFIDNFC技术的Java Spark Web应用

    Smaci与Spark框架和MongoDB一起用JAVA编写。 跑 确保已安装JAVA 8或更高版本,并且Mongo DB已启动并正在运行 平台正在本地端口8082上运行,该端口应该是免费的 从发行版下载最新版本 运行它java -jar SmartCity-1.0-...

    SparkCore快速入门详解

    1. **安装与配置**:首先下载Spark,配置环境变量,确保Java环境已安装。 2. **创建SparkContext**:在你的代码中创建SparkContext实例,这是与Spark集群交互的第一步。 3. **加载数据**:使用`SparkContext`的`text...

    大数据期末课设~基于spark的气象数据处理与分析

    为了支持数据可视化,还安装了matplotlib和tkinter库。实验数据来源于中国中央气象台的官方网站,包含了24小时内全国2412个城市的气温、降水量、风力、气压和湿度等气象指标,总计57888条数据。值得注意的是,部分...

    spark-3.3.0-bin-hadoop3.3.2.tgz

    Spark提供Web UI(默认端口8080)监控作业状态,以及YARN或Mesos UI跟踪资源使用情况。日志文件有助于排查错误。 总结,Spark 3.3.0是大数据处理的重要工具,它与Hadoop 3.3.2的集成为大规模数据处理提供了强大的...

    大数据实训-Spark集群环境部署实验.docx

    1. 在hadoop1上,通过Web界面验证Spark Master和Worker是否正常运行:访问`http://hadoop1:8080`。 2. 在任何节点上,运行一个简单的Spark程序来验证集群功能。 通过这个实验,学习者不仅掌握了Spark的安装和配置,...

    spark-jetty-server:Apache Spark 的食谱和示例

    Spark 码头服务器这是一个简单的示例,演示如何在以纱线客户端模式运行的 Jetty Web 服务器中嵌入SparkContext 。 这被证明是非常重要的,因为了解 Spark 类路径是如何构建的对于完成这项工作是非常必要的。 到目前...

    spark-notebook-demo:演示如何使用Spark笔记本

    Jupyter Notebook 是一个开源的Web应用程序,支持多种编程语言,如 Python、R 和 Scala,而 Spark Notebook 特别针对 Scala 和 Spark 优化,使得大数据处理更加便捷。 ### 安装与启动 Spark Notebook 要开始使用 ...

    Apache Spark源码走读之3 -- Task运行期之函数调用关系分析

    1. **Spark已安装**:确保您的系统中已正确安装Spark。 2. **运行模式**:Spark可以在多种模式下运行,如local、local-cluster等。对于本次分析,我们关注的是local-cluster模式。可以通过`MASTER=local[1,2,1024] ...

Global site tag (gtag.js) - Google Analytics