`
zhuobinzhou
  • 浏览: 136669 次
  • 性别: Icon_minigender_1
  • 来自: 广州
文章分类
社区版块
存档分类

spark.components.Application.url 示例

阅读更多
<?xml version="1.0" encoding="utf-8"?>
<s:Application xmlns:fx="http://ns.adobe.com/mxml/2009" 
			   xmlns:s="library://ns.adobe.com/flex/spark" 
			   xmlns:mx="library://ns.adobe.com/flex/mx" minWidth="955" minHeight="600">
	<fx:Declarations>
		<!-- 将非可视元素(例如服务、值对象)放在此处 -->
	</fx:Declarations>
	<s:layout>
		<s:VerticalLayout horizontalAlign="center"/>
	</s:layout>
	<s:Label text="The Current URL is:" fontSize="18"/>
	<!--
	spark.components.Application.url():String
	[只读] 从中加载此应用程序的 SWF 文件的 URL。
	-->
	<s:Label text="{this.url}" fontSize="14"/>
	<s:Label text="'该URL的长度是:' + {this.url.length}" fontSize="18"/>
	<!--spark.components.Application.parameters():Object
	[只读] 包含表示提供给此 Application 的参数的名称-值对的 Object。 
	可以使用 for-in 循环来提取 parameters Object 中的所有名称和值。
	参数有两个源:Application 的 URL 中的查询字符串和
	FlashVars HTML 参数(仅适用于主 Application)的值。	-->
	
	<mx:Label text="{this.parameters.state}"/>
	
</s:Application>

 

分享到:
评论

相关推荐

    High.Performance.Spark.Best.Practices.for.Scaling.and.Optimizing.Apache.Spark.

    High.Performance.Spark.Best.Practices.for.Scaling.and.Optimizing.Apache.Spark. High.Performance.Spark.Best.Practices.for.Scaling.and.Optimizing.Apache.Spark.

    mondrian-4.3.0.1.2-SPARK.jar

    mondrian-4.3.0.1.2-SPARK.jar

    Learning Spark.pdf

    Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning Spark.pdf Learning ...

    my presentation on RDD & Spark.pptx

    这是一个Apache Spark的演讲ppt,全都是英文的,制作时间是2020年的。包含Spart的最近状态,RDD和其生态。my presentation on RDD & Spark.pptx

    大数据技术之spark.docx

    大数据技术之spark.docx

    GeoMesa Spark.docx

    import org.locationtech.geomesa.spark.jts._ import spark.implicits._ val schema = StructType(Array( StructField("name", StringType, nullable = false), StructField("pointText", StringType, ...

    spark.md5.js

    spark.md5.js用于计算文件的md5值,使用方式SparkMD5.ArrayBuffer.hash(ev.target.result);

    spark配置默认值及其解释说明

    1. `spark.master`:这个参数定义了Spark应用程序连接的集群管理器。默认值通常是“local”,这意味着在单个JVM上运行Spark。在分布式环境中,可能设置为“yarn”(用于Hadoop YARN)、“mesos”或“spark://...

    Spark的shuffle调优

    spark.reducer.maxSizeInFlight 48m reduce task的buffer缓冲,代表了每个reduce task每次能够拉取的map side数据最大大小,如果内存充足,可以考虑加大,从而减少网络传输次数,提升性能 spark.shuffle....

    【解决方案】pyspark 初次连接mongo 时报错Class not found exception:com.mongodb.spark.sql.DefaultSource

     df = spark.read.format(com.mongodb.spark.sql.DefaultSource).load()  File /home/cisco/spark-2.2.0-bin-hadoop2.7/python/lib/pyspark.zip/pyspark/sql/readwriter.py, line 165, in load  

    本地使用scala操作spark示例.doc

    8. **`.config("spark.sql.sources.partitionOverwriteMode", "dynamic")`**:设置分区覆盖模式为动态,这意味着当写入数据时,如果存在相同的分区,则只覆盖这些分区的数据而不是整个表的数据。 9. **`.config(...

    Spark3.0.0配置文件.zip

    - `spark.master`: 这个配置指定了Spark应用程序运行的集群管理器。例如,可以设置为`local`以在本地运行,或者`yarn`、`mesos`或`k8s`以在相应的资源管理器上运行。 - `spark.app.name`: 应用程序的名称,显示在...

    【hive on spark Error】return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.

    ERROR : FAILED: Execution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. 前言报错信息异常分析配置改动后记 前言 在成功消除Cloudare管理界面上那些可恶的警告之后,我又对yarn...

    Spark SQL常见4种数据源详解

    通用load/write方法 手动指定选项 Spark SQL的DataFrame接口支持多种数据源的操作。... Spark SQL的默认数据源为Parquet格式。数据源为Parquet文件时,...scala&gt; val df = spark.read.load(hdfs://hadoop001:9000/nam

    Spark.GraphX.in.Action.2016.6.pdf

    Spark.GraphX.in.Action.2016.6.pdf

    springboot_spark.rar

    标题 "springboot_spark.rar" 暗示了这是一个关于如何在Spring Boot框架下整合Apache Spark的项目。Spring Boot是Java开发中的一个流行框架,它简化了创建独立、生产级别的基于Spring的应用程序。而Apache Spark则是...

Global site tag (gtag.js) - Google Analytics