有一个格式化的数据文件,用\t分割列,第2列为产品名称。现在需求把数据文件根据产品名切分为多个文件,使用MapReduce程序要如何实现?
原始文件:
[root@localhost opt]# cat aprData
1 a1 a111
2 a2 a211
3 a1 a112
4 a1 a112
5 a1 a112
6 a1 a112
7 a2 a112
8 a2 a112
9 a2 a112
10 a3 a113
思路:
1.用一个mapreduce程序找出所有产品名称:
1.1map<k2,v2>为<产品名称,null>
1.2reduce<k3,v3>为<产品名称,null>
实现:AprProduces类
[root@localhost opt]# hadoop jar apr-produces.jar /aprData /aprProduce-output
Warning: $HADOOP_HOME is deprecated.
16/05/01 15:00:12 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
16/05/01 15:00:12 INFO input.FileInputFormat: Total input paths to process : 1
16/05/01 15:00:12 INFO util.NativeCodeLoader: Loaded the native-hadoop library
16/05/01 15:00:12 WARN snappy.LoadSnappy: Snappy native library not loaded
16/05/01 15:00:13 INFO mapred.JobClient: Running job: job_201605010048_0020
16/05/01 15:00:14 INFO mapred.JobClient: map 0% reduce 0%
16/05/01 15:00:33 INFO mapred.JobClient: map 100% reduce 0%
16/05/01 15:00:45 INFO mapred.JobClient: map 100% reduce 100%
16/05/01 15:00:50 INFO mapred.JobClient: Job complete: job_201605010048_0020
16/05/01 15:00:50 INFO mapred.JobClient: Counters: 29
16/05/01 15:00:50 INFO mapred.JobClient: Map-Reduce Framework
16/05/01 15:00:50 INFO mapred.JobClient: Spilled Records=20
16/05/01 15:00:50 INFO mapred.JobClient: Map output materialized bytes=56
16/05/01 15:00:50 INFO mapred.JobClient: Reduce input records=10
16/05/01 15:00:50 INFO mapred.JobClient: Virtual memory (bytes) snapshot=3868389376
16/05/01 15:00:50 INFO mapred.JobClient: Map input records=10
16/05/01 15:00:50 INFO mapred.JobClient: SPLIT_RAW_BYTES=89
16/05/01 15:00:50 INFO mapred.JobClient: Map output bytes=30
16/05/01 15:00:50 INFO mapred.JobClient: Reduce shuffle bytes=56
16/05/01 15:00:50 INFO mapred.JobClient: Physical memory (bytes) snapshot=240697344
16/05/01 15:00:50 INFO mapred.JobClient: Reduce input groups=3
16/05/01 15:00:50 INFO mapred.JobClient: Combine output records=0
16/05/01 15:00:50 INFO mapred.JobClient: Reduce output records=3
16/05/01 15:00:50 INFO mapred.JobClient: Map output records=10
16/05/01 15:00:50 INFO mapred.JobClient: Combine input records=0
16/05/01 15:00:50 INFO mapred.JobClient: CPU time spent (ms)=1490
16/05/01 15:00:50 INFO mapred.JobClient: Total committed heap usage (bytes)=177016832
16/05/01 15:00:50 INFO mapred.JobClient: File Input Format Counters
16/05/01 15:00:50 INFO mapred.JobClient: Bytes Read=101
16/05/01 15:00:50 INFO mapred.JobClient: FileSystemCounters
16/05/01 15:00:50 INFO mapred.JobClient: HDFS_BYTES_READ=190
16/05/01 15:00:50 INFO mapred.JobClient: FILE_BYTES_WRITTEN=43049
16/05/01 15:00:50 INFO mapred.JobClient: FILE_BYTES_READ=56
16/05/01 15:00:50 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=9
16/05/01 15:00:50 INFO mapred.JobClient: Job Counters
16/05/01 15:00:50 INFO mapred.JobClient: Launched map tasks=1
16/05/01 15:00:50 INFO mapred.JobClient: Launched reduce tasks=1
16/05/01 15:00:50 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=11002
16/05/01 15:00:50 INFO mapred.JobClient: Total time spent by all reduces waiting after reserving slots (ms)=0
16/05/01 15:00:50 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=13561
16/05/01 15:00:50 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0
16/05/01 15:00:50 INFO mapred.JobClient: Data-local map tasks=1
16/05/01 15:00:50 INFO mapred.JobClient: File Output Format Counters
16/05/01 15:00:50 INFO mapred.JobClient: Bytes Written=9
[root@localhost opt]# hadoop fs -cat /aprProduce-output/part-r-00000
Warning: $HADOOP_HOME is deprecated.
a1
a2
a3
2.再用一个mapreduce程序对文件进行切分:
2.1map<k2,v2>为<产品名称,line>
2.2reduce<k3,v3>为<line,null>
2.3自定义分区partition,读取第一个mapreduce程序的输出文件,组装成一个map<产品名称,index>,在partition中判断产品名称并返回下标,没有找到放在0下标中。
2.4设置taskNum(reduce的个数),taskNum应该和partition的个数一致.
3.5使用MultipleOutPuts类进行重命名输出文件,输出文件为 xxx-00001 等
实现:AprClassify类
[root@localhost opt]# hadoop jar apr-classify.jar /aprData /apr-output
Warning: $HADOOP_HOME is deprecated.
16/05/01 14:09:11 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
16/05/01 14:09:11 INFO input.FileInputFormat: Total input paths to process : 1
16/05/01 14:09:11 INFO util.NativeCodeLoader: Loaded the native-hadoop library
16/05/01 14:09:11 WARN snappy.LoadSnappy: Snappy native library not loaded
16/05/01 14:09:11 INFO mapred.JobClient: Running job: job_201605010048_0017
16/05/01 14:09:13 INFO mapred.JobClient: map 0% reduce 0%
16/05/01 14:09:29 INFO mapred.JobClient: map 100% reduce 0%
16/05/01 14:09:41 INFO mapred.JobClient: map 100% reduce 33%
16/05/01 14:09:44 INFO mapred.JobClient: map 100% reduce 66%
16/05/01 14:09:56 INFO mapred.JobClient: map 100% reduce 100%
16/05/01 14:10:01 INFO mapred.JobClient: Job complete: job_201605010048_0017
16/05/01 14:10:01 INFO mapred.JobClient: Counters: 29
16/05/01 14:10:01 INFO mapred.JobClient: Map-Reduce Framework
16/05/01 14:10:01 INFO mapred.JobClient: Spilled Records=20
16/05/01 14:10:01 INFO mapred.JobClient: Map output materialized bytes=169
16/05/01 14:10:01 INFO mapred.JobClient: Reduce input records=10
16/05/01 14:10:01 INFO mapred.JobClient: Virtual memory (bytes) snapshot=7754653696
16/05/01 14:10:01 INFO mapred.JobClient: Map input records=10
16/05/01 14:10:01 INFO mapred.JobClient: SPLIT_RAW_BYTES=89
16/05/01 14:10:01 INFO mapred.JobClient: Map output bytes=131
16/05/01 14:10:01 INFO mapred.JobClient: Reduce shuffle bytes=169
16/05/01 14:10:01 INFO mapred.JobClient: Physical memory (bytes) snapshot=387825664
16/05/01 14:10:01 INFO mapred.JobClient: Reduce input groups=3
16/05/01 14:10:01 INFO mapred.JobClient: Combine output records=0
16/05/01 14:10:01 INFO mapred.JobClient: Reduce output records=0
16/05/01 14:10:01 INFO mapred.JobClient: Map output records=10
16/05/01 14:10:01 INFO mapred.JobClient: Combine input records=0
16/05/01 14:10:01 INFO mapred.JobClient: CPU time spent (ms)=3950
16/05/01 14:10:01 INFO mapred.JobClient: Total committed heap usage (bytes)=209522688
16/05/01 14:10:01 INFO mapred.JobClient: File Input Format Counters
16/05/01 14:10:01 INFO mapred.JobClient: Bytes Read=101
16/05/01 14:10:01 INFO mapred.JobClient: FileSystemCounters
16/05/01 14:10:01 INFO mapred.JobClient: HDFS_BYTES_READ=199
16/05/01 14:10:01 INFO mapred.JobClient: FILE_BYTES_WRITTEN=86609
16/05/01 14:10:01 INFO mapred.JobClient: FILE_BYTES_READ=169
16/05/01 14:10:01 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=104
16/05/01 14:10:01 INFO mapred.JobClient: Job Counters
16/05/01 14:10:01 INFO mapred.JobClient: Launched map tasks=1
16/05/01 14:10:01 INFO mapred.JobClient: Launched reduce tasks=3
16/05/01 14:10:01 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=35295
16/05/01 14:10:01 INFO mapred.JobClient: Total time spent by all reduces waiting after reserving slots (ms)=0
16/05/01 14:10:01 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=13681
16/05/01 14:10:01 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0
16/05/01 14:10:01 INFO mapred.JobClient: Data-local map tasks=1
16/05/01 14:10:01 INFO mapred.JobClient: File Output Format Counters
16/05/01 14:10:01 INFO mapred.JobClient: Bytes Written=0
[root@localhost opt]# hadoop fs -ls /apr-output/
Warning: $HADOOP_HOME is deprecated.
Found 8 items
-rw-r--r-- 1 root supergroup 0 2016-05-01 14:09 /apr-output/_SUCCESS
drwxr-xr-x - root supergroup 0 2016-05-01 14:09 /apr-output/_logs
-rw-r--r-- 1 root supergroup 51 2016-05-01 14:09 /apr-output/a1-r-00000
-rw-r--r-- 1 root supergroup 41 2016-05-01 14:09 /apr-output/a2-r-00001
-rw-r--r-- 1 root supergroup 12 2016-05-01 14:09 /apr-output/a3-r-00002
-rw-r--r-- 1 root supergroup 0 2016-05-01 14:09 /apr-output/part-r-00000
-rw-r--r-- 1 root supergroup 0 2016-05-01 14:09 /apr-output/part-r-00001
-rw-r--r-- 1 root supergroup 0 2016-05-01 14:09 /apr-output/part-r-00002
[root@localhost opt]# hadoop fs -cat /apr-output/a1-r-00000
Warning: $HADOOP_HOME is deprecated.
1 a1 a111
3 a1 a112
4 a1 a112
5 a1 a112
6 a1 a112
[root@localhost opt]# hadoop fs -cat /apr-output/a2-r-00000
Warning: $HADOOP_HOME is deprecated.
cat: File does not exist: /apr-output/a2-r-00000
[root@localhost opt]# hadoop fs -cat /apr-output/a2-r-00001
Warning: $HADOOP_HOME is deprecated.
2 a2 a211
7 a2 a112
8 a2 a112
9 a2 a112
[root@localhost opt]# hadoop fs -cat /apr-output/a3-r-00002
Warning: $HADOOP_HOME is deprecated.
10 a3 a113
3.用hdfs对文件进行批量复制,重命名并转移产品数据文件到指定目录
实现:RenameApr类
[root@localhost opt]# hadoop fs -ls /aprProduces
Warning: $HADOOP_HOME is deprecated.
Found 3 items
-rw-r--r-- 3 yehao supergroup 51 2016-05-01 14:37 /aprProduces/a1
-rw-r--r-- 3 yehao supergroup 41 2016-05-01 14:37 /aprProduces/a2
-rw-r--r-- 3 yehao supergroup 12 2016-05-01 14:37 /aprProduces/a3
[root@localhost opt]# hadoop fs -cat /aprProduces/a1
Warning: $HADOOP_HOME is deprecated.
1 a1 a111
3 a1 a112
4 a1 a112
5 a1 a112
6 a1 a112
[root@localhost opt]# hadoop fs -cat /aprProduces/a2
Warning: $HADOOP_HOME is deprecated.
2 a2 a211
7 a2 a112
8 a2 a112
9 a2 a112
[root@localhost opt]# hadoop fs -cat /aprProduces/a3
Warning: $HADOOP_HOME is deprecated.
10 a3 a113
代码部分:
1.com.huawei.AprClassify
package com; import java.io.IOException; import java.util.Map; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Partitioner; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs; public class AprClassify { private static int taskNum = HdfsUtils.getMapSize(); public static void main(String[] args) throws Exception { Job job = new Job(new Configuration(), AprClassify.class.getSimpleName()); job.setJarByClass(AprClassify.class); job.setMapperClass(AprClassifyMap.class); job.setReducerClass(AprClassifyReducer.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(Text.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(NullWritable.class); job.setPartitionerClass(AprClassifyPartitioner.class); job.setNumReduceTasks(taskNum+1); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); job.waitForCompletion(true); } } class AprClassifyReducer extends Reducer<Text, Text, Text, NullWritable>{ private MultipleOutputs<Text, NullWritable> outputs; protected void setup(Context context) throws IOException, InterruptedException { outputs = new MultipleOutputs<Text, NullWritable>(context); } @Override protected void reduce(Text k2, Iterable<Text> v2s, Reducer<Text, Text, Text, NullWritable>.Context context) throws IOException, InterruptedException { String st = ""; for (Text text : v2s) { st += text.toString() +"\n"; } Text k3 = new Text(st); outputs.write(k3, NullWritable.get(), k2.toString()); } protected void cleanup(Context context) throws IOException, InterruptedException { outputs.close(); } } class AprClassifyMap extends Mapper<LongWritable, Text, Text, Text>{ Text k2 = new Text(); @Override protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, Text>.Context context) throws IOException, InterruptedException { String line = value.toString(); String[] splited = line.split("\t"); k2.set(splited[1]); System.out.println(context); System.out.println(k2); System.out.println(value); context.write(k2, value); } } class AprClassifyPartitioner extends Partitioner<Text, Text> { private static Map<String, Integer> map = HdfsUtils.getMap(); @Override public int getPartition(Text key, Text value, int numPartitions) { if(map.get(key.toString()) == null){ return 0; } return map.get(key.toString()); } }
2.com.huawei.HdfsUtils
package com.huawei; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.net.URI; import java.net.URISyntaxException; import java.util.HashMap; import java.util.Map; import org.apache.commons.lang.StringUtils; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; public class HdfsUtils { private static FileSystem fileSystem; private static Map<String, Integer> map; private static FileSystem getFileSystem() throws URISyntaxException, IOException { if(fileSystem == null){ Configuration conf = new Configuration(); URI uri = new URI("hdfs://192.168.1.190:9000"); fileSystem = FileSystem.get(uri, conf); } return fileSystem; } public static int getMapSize(){ return getMap().size(); } public static Map<String, Integer> getMap(){ if(map == null){ map = new HashMap<String, Integer>(); FSDataInputStream in; BufferedReader reader = null; try{ fileSystem = getFileSystem(); in = fileSystem.open(new Path("hdfs://192.168.1.190:9000/aprProduce")); reader = new BufferedReader(new InputStreamReader(in)); String line = null; int i = 1; while((line = reader.readLine()) != null) { map.put(line, i++); } }catch(Exception e){ e.printStackTrace(); }finally{ try { if(reader != null) reader.close(); } catch (IOException e) { e.printStackTrace(); } } } return map; } public static void copyProduces(String inputPath, String outPutDir) throws Exception{ FileStatus[] listStatus = getFileSystem().listStatus(new Path(inputPath)); for (FileStatus fileStatus : listStatus) { String name = fileStatus.getPath().getName(); if(!fileStatus.isDir() && !StringUtils.equals(name, "_SUCCESS") && !StringUtils.startsWith(name, "part-r-")){ FSDataInputStream openStream = fileSystem.open(fileStatus.getPath()); IOUtils.copyBytes(openStream, fileSystem.create(new Path("/"+outPutDir+"/"+name.split("-")[0])), 1024, false); IOUtils.closeStream(openStream); } } } }
3.com.huawei.AprProduces
package com.huawei; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; /** * 分析文件,获得所有产品名 * args[0] 原始文件 * args[1] 输出文件:所有产品名 * */ public class AprProduces { public static void main(String[] args) throws Exception { Job job = new Job(new Configuration(), AprProduces.class.getSimpleName()); job.setJarByClass(AprProduces.class); job.setMapperClass(AprProducesMap.class); job.setReducerClass(AprProducesReducer.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(NullWritable.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(NullWritable.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); job.waitForCompletion(true); } } class AprProducesMap extends Mapper<LongWritable, Text, Text, NullWritable>{ Text k2 = new Text(); @Override protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, NullWritable>.Context context) throws IOException, InterruptedException { String line = value.toString(); String[] splited = line.split("\t"); k2.set(splited[1]);//四个文件的 文件名的下标不一样,需要修改 context.write(k2, NullWritable.get()); } } class AprProducesReducer extends Reducer<Text, Text, Text, NullWritable>{ @Override protected void reduce(Text k2, Iterable<Text> v2s, Reducer<Text, Text, Text, NullWritable>.Context context) throws IOException, InterruptedException { context.write(k2, NullWritable.get()); } }
4.com.huawei.RenameApr
package com.huawei; public class RenameApr { public static void main(String[] args) throws Exception{ //文件重命名 HdfsUtils.copyProduces("/apr-output/", "aprProduce"); } }
相关推荐
基于Maxwell设计的经典280W 4025RPM高效率科尔摩根12极39槽TBM无框力矩电机:生产与学习双重应用案例,基于Maxwell设计的经典280W高转速科尔摩根TBM无框力矩电机:7615系列案例解析与应用实践,基于maxwwell设计的经典280W,4025RPM 内转子 科尔摩根 12极39槽 TBM无框力矩电机,7615系列。 该案例可用于生产,或者学习用,(157) ,maxwell设计; 280W; 4025RPM内转子; 科尔摩根; 12极39槽TBM无框力矩电机; 7615系列; 生产/学习用。,基于Maxwell设计,高功率280W 12极39槽TBM无框力矩电机:生产与学习双用途案例
基于碳交易的微网优化模型的Matlab设计与实现策略分析,基于碳交易的微网优化模型的Matlab设计与实现探讨,考虑碳交易的微网优化模型matlab ,考虑碳交易; 微网优化模型; MATLAB;,基于Matlab的碳交易微网优化模型研究
二级2025模拟试题(答案版)
OpenCV是一个功能强大的计算机视觉库,它提供了多种工具和算法来处理图像和视频数据。在C++中,OpenCV可以用于实现基础的人脸识别功能,包括从摄像头、图片和视频中识别人脸,以及通过PCA(主成分分析)提取图像轮廓。以下是对本资源大体的介绍: 1. 从摄像头中识别人脸:通过使用OpenCV的Haar特征分类器,我们可以实时从摄像头捕获的视频流中检测人脸。这个过程涉及到将视频帧转换为灰度图像,然后使用预训练的Haar级联分类器来识别人脸区域。 2. 从视频中识别出所有人脸和人眼:在视频流中,除了检测人脸,我们还可以进一步识别人眼。这通常涉及到使用额外的Haar级联分类器来定位人眼区域,从而实现对人脸特征的更细致分析。 3. 从图片中检测出人脸:对于静态图片,OpenCV同样能够检测人脸。通过加载图片,转换为灰度图,然后应用Haar级联分类器,我们可以在图片中标记出人脸的位置。 4. PCA提取图像轮廓:PCA是一种统计方法,用于分析和解释数据中的模式。在图像处理中,PCA可以用来提取图像的主要轮廓特征,这对于人脸识别技术中的面部特征提取尤
麻雀搜索算法(SSA)自适应t分布改进版:卓越性能与优化代码注释,适合深度学习。,自适应t分布改进麻雀搜索算法(TSSA)——卓越的学习样本,优化效果出众,麻雀搜索算法(SSA)改进——采用自适应t分布改进麻雀位置(TSSA),优化后明显要优于基础SSA(代码基本每一步都有注释,代码质量极高,非常适合学习) ,TSSA(自适应t分布麻雀位置算法);注释详尽;高质量代码;适合学习;算法改进结果优异;TSSA相比基础SSA。,自适应T分布优化麻雀搜索算法:代码详解与学习首选(TSSA改进版)
锂电池主动均衡Simulink仿真研究:多种均衡策略与电路架构的深度探讨,锂电池主动均衡与多种均衡策略的Simulink仿真研究:buckboost拓扑及多层次电路分析,锂电池主动均衡simulink仿真 四节电池 基于buckboost(升降压)拓扑 (还有传统电感均衡+开关电容均衡+双向反激均衡+双层准谐振均衡+环形均衡器+cuk+耦合电感)被动均衡电阻式均衡 、分层架构式均衡以及分层式电路均衡,多层次电路,充放电。 ,核心关键词: 锂电池; 主动均衡; Simulink仿真; 四节电池; BuckBoost拓扑; 传统电感均衡; 开关电容均衡; 双向反激均衡; 双层准谐振均衡; 环形均衡器; CUK均衡; 耦合电感均衡; 被动均衡; 电阻式均衡; 分层架构式均衡; 多层次电路; 充放电。,锂电池均衡策略研究:Simulink仿真下的多拓扑主动与被动均衡技术
S7-1500和分布式外围系统ET200MP模块数据
内置式永磁同步电机无位置传感器模型:基于滑膜观测器和MTPA技术的深度探究,内置式永磁同步电机基于滑膜观测器和MTPA的无位置传感器模型研究,基于滑膜观测器和MTPA的内置式永磁同步电机无位置传感器模型 ,基于滑膜观测器;MTPA;内置式永磁同步电机;无位置传感器模型,基于滑膜观测与MTPA算法的永磁同步电机无位置传感器模型
centos7操作系统下安装docker,及docker常用命令、在docker中运行nginx示例,包括 1.设置yum的仓库 2.安装 Docker Engine-Community 3.docker使用 4.查看docker进程是否启动成功 5.docker常用命令及nginx示例 6.常见问题
给曙光服务器安装windows2012r2时候找不到磁盘,问厂家工程师要的raid卡驱动,内含主流大多数品牌raid卡驱动
数学建模相关主题资源2
西门子四轴卧式加工中心后处理系统:828D至840D支持,四轴联动制造解决方案,图档处理与试看程序一应俱全。,西门子四轴卧加后处理系统:支持828D至840D系统,四轴联动高精度制造解决方案,西门子四轴卧加后处理,支持828D~840D系统,支持四轴联动,可制制,看清楚联系,可提供图档处理试看程序 ,核心关键词:西门子四轴卧加后处理; 828D~840D系统支持; 四轴联动; 制程; 联系; 图档处理试看程序。,西门子四轴卧加后处理程序,支持多种系统与四轴联动
MATLAB下基于列约束生成法CCG的两阶段鲁棒优化问题求解入门指南:算法验证与经典文献参考,MATLAB下基于列约束生成法CCG的两阶段鲁棒优化问题求解入门指南:算法验证与文献参考,MATLAB代码:基于列约束生成法CCG的两阶段问题求解 关键词:两阶段鲁棒 列约束生成法 CCG算法 参考文档:《Solving two-stage robust optimization problems using a column-and-constraint generation method》 仿真平台:MATLAB YALMIP+CPLEX 主要内容:代码构建了两阶段鲁棒优化模型,并用文档中的相对简单的算例,进行CCG算法的验证,此篇文献是CCG算法或者列约束生成算法的入门级文献,其经典程度不言而喻,几乎每个搞CCG的两阶段鲁棒的人都绕不过此篇文献 ,两阶段鲁棒;列约束生成法;CCG算法;MATLAB;YALMIP+CPLEX;入门级文献。,MATLAB代码实现:基于两阶段鲁棒与列约束生成法CCG的算法验证研究
“生热研究的全面解读:探究参数已配置的Comsol模型中的18650圆柱锂电池表现”,探究已配置参数的COMSOL模型下的锂电池生热现象:18650圆柱锂电池模拟分析,出一个18650圆柱锂电池comsol模型 参数已配置,生热研究 ,出模型; 18650圆柱锂电池; comsol模型; 参数配置; 生热研究,构建18650电池的COMSOL热研究模型
移动端多端运行的知识付费管理系统源码,TP6+Layui+MySQL后端支持,功能丰富,涵盖直播、点播、管理全功能及礼物互动,基于UniApp跨平台开发的移动端知识付费管理系统源码:多端互通、全功能齐备、后端采用TP6与PHP及Layui前端,搭载MySQL数据库与直播、点播、管理、礼物等功能的强大整合。,知识付费管理系统源码,移动端uniApp开发,app h5 小程序一套代码多端运行,后端php(tp6)+layui+MySQL,功能齐全,直播,点播,管理,礼物等等功能应有尽有 ,知识付费;管理系统源码;移动端uniApp开发;多端运行;后端php(tp6);layui;MySQL;直播点播;管理功能;礼物功能,知识付费管理平台:全功能多端运行系统源码(PHP+Layui+MySQL)
基于Python+Django+MySQL的个性化图书推荐系统:协同过滤推荐,智能部署,用户定制功能,基于Python+Django+MySQL的个性化图书推荐系统:协同过滤推荐,智能部署,用户定制功能,Python+Django+Mysql个性化图书推荐系统 图书在线推荐系统 基于用户、项目、内容的协同过滤推荐算法。 帮远程安装部署 一、项目简介 1、开发工具和实现技术 Python3.8,Django4,mysql8,navicat数据库管理工具,html页面,javascript脚本,jquery脚本,bootstrap前端框架,layer弹窗组件、webuploader文件上传组件等。 2、项目功能 前台用户包含:注册、登录、注销、浏览图书、搜索图书、信息修改、密码修改、兴趣喜好标签、图书评分、图书收藏、图书评论、热点推荐、个性化推荐图书等功能; 后台管理员包含:用户管理、图书管理、图书类型管理、评分管理、收藏管理、评论管理、兴趣喜好标签管理、权限管理等。 个性化推荐功能: 无论是否登录,在前台首页展示热点推荐(根据图书被收藏数量降序推荐)。 登录用户,在前台首页展示个性化推荐
STM32企业级锅炉控制器源码分享:真实项目经验,带注释完整源码助你快速掌握实战经验,STM32企业级锅炉控制器源码:真实项目经验,完整注释,助力初学者快速上手,stm32真实企业项目源码 项目要求与网上搜的那些开发板的例程完全不在一个级别,也不是那些凑合性质的项目可以比拟的。 项目是企业级产品的要求开发的,能够让初学者了解真实的企业项目是怎么样的,增加工作经验 企业真实项目网上稀缺,完整源码带注释,适合没有参与工作或者刚学stm32的增加工作经验, 这是一个锅炉的控制器,有流程图和程序协议的介绍。 ,stm32源码;企业级项目;工作经验;锅炉控制器;流程图;程序协议,基于STM32的真实企业级锅炉控制器项目源码
整车性能目标书:涵盖燃油车、混动车及纯电动车型的十六个性能模块目标定义模板与集成开发指南,整车性能目标书:涵盖燃油车、混动车及纯电动车型的十六个性能模块目标定义模板与集成开发指南,整车性能目标书,汽车性能目标书,十六个性能模块目标定义模板,包含燃油车、混动车型及纯电动车型。 对于整车性能的集成开发具有较高的参考价值 ,整车性能目标书;汽车性能目标书;性能模块目标定义模板;燃油车;混动车型;纯电动车型;集成开发;参考价值,《汽车性能模块化目标书:燃油车、混动车及纯电动车的集成开发参考》
SNMP协议测试工具,解压:000000
基于MATLAB与YALMIP的含分布式与储能的微网优化调度模型:精准采集与高效求解,利用MATLAB和YALMIP构建含分布式与储能的微网优化模型,实现精准调度与约束管理,微网优化调度matlab 采用matlab+yalmip编制含分布式和储能的微网优化模型,程序采用15分钟为采集节点,利用cplex求解,程序考虑发电机的启停约束,程序运行可靠 ,微网优化调度; MATLAB编程; YALMIP; 分布式储能; 优化模型; CPLX求解; 节点采集; 发电机约束。,Matlab下的微网优化调度模型:分布式储能协同Cplex求解程序