- 浏览: 228322 次
- 性别:
- 来自: 上海
-
文章分类
最新评论
-
chowqh:
#修改指向我的hadoop安装目录 org.apache.s ...
Sqoop 1.99.3 安装 -
chowqh:
#修改指向我的hadoop安装目录 org.apache.s ...
Sqoop 1.99.3 安装 -
wuzhongfei:
sqoop1.99.3以后是不是全部取消了sqoop命令,例如 ...
Sqoop 1.99.3 安装 -
cyj0421129:
sqoop:000> show version ...
Sqoop 1.99.3 安装 -
mypeterhero:
请问,我的服务端也起来了如下:sqoop.sh server ...
Sqoop 1.99.3 安装
1.安装准备工作: 已经装好的hadoop环境是hadoop 2.2.0 下载的sqoop安装包(注意是hadoop200) http://www.us.apache.org/dist/sqoop/1.99.3/sqoop-1.99.3-bin-hadoop200.tar.gz 2.解压文件到工作目录: hadoop@hadoopMaster:$ sudo tar -xvf /opt/hn/hadoop_family/sqoop-1.99.3-bin-hadoop200.tar.gz hadoop@hadoopMaster:mv /opt/hn/hadoop_family/sqoop-1.99.3-bin-hadoop200 /usr/local/sqoop 3.修改环境变量: hadoop@hadoopMaster:~$ vim /etc/profile 添加如下内容: #sqoop export SQOOP_HOME=/usr/local/sqoop export PATH=$SQOOP_HOME/bin:$PATH export CATALINA_HOME=$SQOOP_HOME/server export LOGDIR=$SQOOP_HOME/logs 保存退出即时生效: source /etc/profile 4.修改sqoop配置: hadoop@hadoopMaster:~$ vim /usr/local/sqoop/server/conf/sqoop.properties #修改指向我的hadoop安装目录 org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/local/hadoop/ #把hadoop目录下的jar包都引进来 hadoop@hadoopMaster:~$ vim /usr/local/sqoop/server/conf/catalina.properties common.loader=/usr/local/hadoop/share/hadoop/common/*.jar,/usr/local/hadoop/share/hadoop/common/lib/*.jar,/usr/local/hadoop/share/hadoop/hdfs/*.jar,/usr/local/hadoop/share/hadoop/hdfs/lib/*.jar,/usr/local/hadoop/share/hadoop/mapreduce/*.jar,/usr/local/hadoop/share/hadoop/mapreduce/lib/*.jar,/usr/local/hadoop/share/hadoop/tools/*.jar,/usr/local/hadoop/share/hadoop/tools/lib/*.jar,/usr/local/hadoop/share/hadoop/yarn/*.jar,/usr/local/hadoop/share/hadoop/yarn/lib/*.jar,/usr/local/hadoop/share/hadoop/httpfs/tomcat/lib/*.jar 5.下载mysql驱动包 mysql-connector-java-5.1.16-bin.jar 6.启动/停止sqoop200 hadoop@hadoopMaster:/usr/local/sqoop/bin$ ./sqoop.sh server start/stop 查看启动日志: hadoop@hadoopMaster:/usr/local/sqoop/server/logs$ vim catalina.out 7.进入客户端交互目录 hadoop@hadoopMaster:/usr/local/sqoop/bin$ ./sqoop.sh client +------------------------------------------+ |Sqoop home directory: /usr/local/sqoop | |Sqoop Shell: Type 'help' or '\h' for help.| |sqoop:000> | +------------------------------------------+ 为客户端配置服务器: +---------------------------------------------------------------------+ |sqoop:000> set server --host hadoopMaster --port 12000 --webapp sqoop| |Server is set successfully | +---------------------------------------------------------------------+ 查版本信息: +-----------------------------------------------------------------+ |sqoop:000> show version --all | |client version: | | Sqoop 1.99.3 revision 2404393160301df16a94716a3034e31b03e27b0b | | Compiled by mengweid on Fri Oct 18 14:15:53 EDT 2013 | |server version: | | Sqoop 1.99.3 revision 2404393160301df16a94716a3034e31b03e27b0b | | Compiled by mengweid on Fri Oct 18 14:15:53 EDT 2013 | |Protocol version: | | [1] | +-----------------------------------------------------------------+ 显示连接器: +---------------------------------------------------------------------------------------------+ |sqoop:000> show connector --all | |1 connector(s) to show: | |Connector with id 1: | | Name: generic-jdbc-connector | | Class: org.apache.sqoop.connector.jdbc.GenericJdbcConnector | | Version: 1.99.3 | | Supported job types: [IMPORT, EXPORT] | | Connection form 1: | | Name: connection | | Label: Connection configuration | | Help: You must supply the information requested in order to create a connection object.| | Input 1: | | . | | . | | . | | 太长了,就拷贝这一点 | +---------------------------------------------------------------------------------------------+ 创建数据库连接: +---------------------------------------------------------------------------------------------+ |sqoop:000> create connection --cid 1 | |Creating connection for connector with id 1 | |Please fill following values to create new connection object | |Name: My first | | | |Connection configuration | | | |JDBC Driver Class: com.mysql.jdbc.Driver | |JDBC Connection String: jdbc:mysql://localhost:3306/sqoop_stu | |Username: root | |Password: ********** | |JDBC Connection Properties: | |There are currently 0 values in the map: | |entry# | | | |Security related configuration options | | | |Max connections: 100 | |New connection was successfully created with validation status FINE and persistent id 1 | +---------------------------------------------------------------------------------------------+ 创建导入任务 +------------------------------------------------------------------------------------+ |sqoop:001> create job --xid 1 --type import | |Creating job for connection with id 1 | |Please fill following values to create new job object | |Name: First job | | | |Database configuration | | | |Schema name: traceweb | |Table name: trace_web_application | |Table SQL statement: | |Table column names: | |Partition column name: | |Nulls in partition column: | |Boundary query: | | | |Output configuration | | | |Storage type: | | 0 : HDFS | |Choose: 0 | |Output format: | | 0 : TEXT_FILE | | 1 : SEQUENCE_FILE | |Choose: 1 | |Compression format: | | 0 : NONE | | 1 : DEFAULT | | 2 : DEFLATE | | 3 : GZIP | | 4 : BZIP2 | | 5 : LZO | | 6 : LZ4 | | 7 : SNAPPY | |Choose: 0 | |Output directory: /opt/sqoop_output | | | |Throttling resources | | | |Extractors: | |Loaders: | |New job was successfully created with validation status FINE and persistent id 1 | +------------------------------------------------------------------------------------+ 启动job: +------------------------------------------------ |sqoop:000> start job --jid 1 +------------------------------------------------ 查看导入状态: +------------------------------------------------ |sqoop:000> status job --jid 1 |Submission details |Job ID: 1 |Server URL: http://hadoopMaster:12000/sqoop/ |Created by: hadoop |Creation date: 2014-05-23 18:51:05 CST |Lastly updated by: hadoop |External ID: job_local1566994033_0001 | http://localhost:8080/ |2014-05-23 18:51:35 CST: UNKNOWN +------------------------------------------------ 查看输出目录: +--------------------------------------------------------------------+ hadoop@hadoopMaster:~$ l /opt/sqoop_output/ 总用量 92 drwxrwxr-x 2 hadoop hadoop 4096 5月 23 18:52 . drwxr-xr-x 8 hadoop hadoop 4096 5月 23 18:51 .. -rw-r--r-- 1 hadoop hadoop 209 5月 23 18:51 part-m-00000.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00000.seq.crc -rw-r--r-- 1 hadoop hadoop 86 5月 23 18:51 part-m-00001.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00001.seq.crc -rw-r--r-- 1 hadoop hadoop 86 5月 23 18:51 part-m-00002.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00002.seq.crc -rw-r--r-- 1 hadoop hadoop 86 5月 23 18:51 part-m-00003.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00003.seq.crc -rw-r--r-- 1 hadoop hadoop 86 5月 23 18:51 part-m-00004.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00004.seq.crc -rw-r--r-- 1 hadoop hadoop 86 5月 23 18:51 part-m-00005.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00005.seq.crc -rw-r--r-- 1 hadoop hadoop 207 5月 23 18:51 part-m-00006.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00006.seq.crc -rw-r--r-- 1 hadoop hadoop 86 5月 23 18:51 part-m-00007.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00007.seq.crc -rw-r--r-- 1 hadoop hadoop 206 5月 23 18:51 part-m-00008.seq -rw-rw-r-- 1 hadoop hadoop 12 5月 23 18:51 .part-m-00008.seq.crc -rw-r--r-- 1 hadoop hadoop 682 5月 23 18:51 part-m-00009.seq -rw-rw-r-- 1 hadoop hadoop 16 5月 23 18:51 .part-m-00009.seq.crc -rw-r--r-- 1 hadoop hadoop 0 5月 23 18:51 _SUCCESS -rw-rw-r-- 1 hadoop hadoop 8 5月 23 18:51 ._SUCCESS.crc +-------------------------------------------------------------------- sqoop:000> show job +----+------------+--------+-----------+---------+ | Id | Name | Type | Connector | Enabled | +----+------------+--------+-----------+---------+ | 1 | First job | IMPORT | 1 | true | | 2 | importHDFS | IMPORT | 1 | true | +----+------------+--------+-----------+---------+ sqoop:000> delete job --jid 1 sqoop:000> show job +----+------------+--------+-----------+---------+ | Id | Name | Type | Connector | Enabled | +----+------------+--------+-----------+---------+ | 2 | importHDFS | IMPORT | 1 | true | +----+------------+--------+-----------+---------+ sqoop:000> delete job --jid 2 sqoop:000> show job +----+------+------+-----------+---------+ | Id | Name | Type | Connector | Enabled | +----+------+------+-----------+---------+ +----+------+------+-----------+---------+ sqoop:000> show connection 批处理模式: sqoop.sh client /opt/sqoop/script.sqoop hadoop@hadoopMaster:$ vim /opt/sqoop/script.sqoop #指定服务器信息 set server --host hadoopMaster --port 12000 --webapp sqoop #执行JOB start job --jid 1 +--------------------------------------------------------------------+ hadoop@hadoopMaster:/usr/local/sqoop/bin$ ./sqoop.sh client /opt/hadoop/mysql/batchModel.sqoop Sqoop home directory: /usr/local/sqoop sqoop:000> set server --host hadoopMaster --port 12000 --webapp sqoop Server is set successfully sqoop:000> start job --jid 1 Submission details Job ID: 1 Server URL: http://hadoopMaster:12000/sqoop/ Created by: hadoop Creation date: 2014-05-30 10:55:10 CST Lastly updated by: hadoop External ID: job_local945860799_0003 http://localhost:8080/ 2014-05-30 10:55:10 CST: BOOTING - Progress is not available +--------------------------------------------------------------------+ https://cwiki.apache.org/confluence/display/SQOOP/Sqoop2+Quickstart#Sqoop2Quickstart-Fullimportdemo ================================MYSQL======================================= hadoop@hadoopMaster:~$ mysql -uroot -pjava mysql> create database sqoop_stu; Query OK, 1 row affected (0.03 sec) mysql> use sqoop_stu; Database changed mysql> create table student(id int(3) auto_increment not null primary key, name char(10) not null, address varchar(50)); Query OK, 0 rows affected (0.41 sec) mysql> insert into student values(1, 'Tom','beijing'),(2, 'Joan','shanghai'), (3, 'Wang', 'shenzheng'); Query OK, 3 rows affected (0.07 sec) Records: 3 Duplicates: 0 Warnings: 0 CREATE TABLE `demo_blog` (`id` int(11) NOT NULL AUTO_INCREMENT, `blog` varchar(100) NOT NULL, PRIMARY KEY (`id`)) ENGINE=MyISAM DEFAULT CHARSET=utf8; CREATE TABLE `demo_log` (`operator` varchar(16) NOT NULL, `log` varchar(100) NOT NULL) ENGINE=MyISAM DEFAULT CHARSET=utf8; https://hbase.apache.org/book/configuration.html#hadoop http://www.tuicool.com/articles/NVfEVnn
评论
10 楼
chowqh
2016-09-30
#修改指向我的hadoop安装目录
org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/local/hadoop/
应该修改为hadoop配置文件的路径,在楼主那里应该是/usr/local/hadoop/etc/hadoop才行,不然导入导出任务提交会失败
org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/local/hadoop/
应该修改为hadoop配置文件的路径,在楼主那里应该是/usr/local/hadoop/etc/hadoop才行,不然导入导出任务提交会失败
9 楼
chowqh
2016-09-30
#修改指向我的hadoop安装目录
org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/local/hadoop/
org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/local/hadoop/
8 楼
wuzhongfei
2015-04-16
sqoop1.99.3以后是不是全部取消了sqoop命令,例如:
qoop create-hive-table --connect jdbc:oracle:thin:@172.17.1.188:1521:lhorcl --username sq --password sq --table buyy --hive-table buyy
sqoop import --connect jdbc:oracle:thin:@172.17.1.188:1521:lhorcl --username sq --password sq --table buyy --hive-import
我在sqoop启动之后,发现使用sqoop指令提示:
sqoop command not found
qoop create-hive-table --connect jdbc:oracle:thin:@172.17.1.188:1521:lhorcl --username sq --password sq --table buyy --hive-table buyy
sqoop import --connect jdbc:oracle:thin:@172.17.1.188:1521:lhorcl --username sq --password sq --table buyy --hive-import
我在sqoop启动之后,发现使用sqoop指令提示:
sqoop command not found
7 楼
cyj0421129
2015-04-15
sqoop:000> show version -all
client version:
Sqoop 1.99.3 revision 2404393160301df16a94716a3034e31b03e27b0b
Compiled by mengweid on Fri Oct 18 14:15:53 EDT 2013
Exception has occurred during processing command
Exception: com.sun.jersey.api.client.UniformInterfaceException Message: GET http://10.0.252.10:12000/sqoop/version returned a response status of 404 Not Found
我hadoop集群的主机IP是10.0.252.10 ,问题出在哪?? 我看catalina.out日志,是log4j的个报错。。。
求解决方案
client version:
Sqoop 1.99.3 revision 2404393160301df16a94716a3034e31b03e27b0b
Compiled by mengweid on Fri Oct 18 14:15:53 EDT 2013
Exception has occurred during processing command
Exception: com.sun.jersey.api.client.UniformInterfaceException Message: GET http://10.0.252.10:12000/sqoop/version returned a response status of 404 Not Found
我hadoop集群的主机IP是10.0.252.10 ,问题出在哪?? 我看catalina.out日志,是log4j的个报错。。。
求解决方案
6 楼
mypeterhero
2014-11-03
请问,我的服务端也起来了如下:
sqoop.sh server start
用客户端也连接成功了,
sqoop.sh client
set server --host cloudmaster --port 12000 --webapp sqoop
然后新建了链接mysql
新建了job
测试把库的表的数据导到hdfs中去
start job --jid 2
如下:
sqoop:000> start job --jid 2
Submission details
Job ID: 2
Server URL: http://cloudmaster:12000/sqoop/
Created by: hadoop
Creation date: 2014-11-03 10:42:51 CST
Lastly updated by: hadoop
External ID: job_1414828812005_0005
http://cloudmaster:8088/proxy/application_1414828812005_0005/
2014-11-03 10:42:51 CST: BOOTING - Progress is not available
我点击http://cloudmaster:8088.....的链接
查看到如下报错
Application application_1414828812005_0005 failed 2 times due to AM Container for appattempt_1414828812005_0005_000002 exited with exitCode: -1000 due to: No space available in any of the local directories.
.Failing this attempt.. Failing the application.
我是一个主节点,四个子节点
请问侯上校,是什么原因啊,
sqoop.sh server start
用客户端也连接成功了,
sqoop.sh client
set server --host cloudmaster --port 12000 --webapp sqoop
然后新建了链接mysql
新建了job
测试把库的表的数据导到hdfs中去
start job --jid 2
如下:
sqoop:000> start job --jid 2
Submission details
Job ID: 2
Server URL: http://cloudmaster:12000/sqoop/
Created by: hadoop
Creation date: 2014-11-03 10:42:51 CST
Lastly updated by: hadoop
External ID: job_1414828812005_0005
http://cloudmaster:8088/proxy/application_1414828812005_0005/
2014-11-03 10:42:51 CST: BOOTING - Progress is not available
我点击http://cloudmaster:8088.....的链接
查看到如下报错
Application application_1414828812005_0005 failed 2 times due to AM Container for appattempt_1414828812005_0005_000002 exited with exitCode: -1000 due to: No space available in any of the local directories.
.Failing this attempt.. Failing the application.
我是一个主节点,四个子节点
请问侯上校,是什么原因啊,
5 楼
haha_hyq
2014-09-23

4 楼
q547904614
2014-08-30
我在启动show version --all时,出现GET http://localhost:12000/sqoop/version returned a response status of 404 Not Found,这个问题怎么解决?
3 楼
侯上校
2014-07-18
jie8895010 写道
你好
(1)我在启动show version --all时,出现GET http://localhost:12000/sqoop/version returned a response status of 404 Not Found,这个问题怎么解决?
(2)set server --host hadoopMaster --port 12000 --webapp sqoop里面的hadoopMaster这个主机是你新添加的,还是系统自带的?可以换成localhost吗?
(1)我在启动show version --all时,出现GET http://localhost:12000/sqoop/version returned a response status of 404 Not Found,这个问题怎么解决?
(2)set server --host hadoopMaster --port 12000 --webapp sqoop里面的hadoopMaster这个主机是你新添加的,还是系统自带的?可以换成localhost吗?
hadoop集群的master的hostname
2 楼
jie8895010
2014-07-15
你好
(1)我在启动show version --all时,出现GET http://localhost:12000/sqoop/version returned a response status of 404 Not Found,这个问题怎么解决?
(2)set server --host hadoopMaster --port 12000 --webapp sqoop里面的hadoopMaster这个主机是你新添加的,还是系统自带的?可以换成localhost吗?
(1)我在启动show version --all时,出现GET http://localhost:12000/sqoop/version returned a response status of 404 Not Found,这个问题怎么解决?
(2)set server --host hadoopMaster --port 12000 --webapp sqoop里面的hadoopMaster这个主机是你新添加的,还是系统自带的?可以换成localhost吗?
1 楼
jie8895010
2014-07-15
你好,我在启动show version --all时,出现
Exception:com.sun.jersey.api.client.ClientHandlerException Message: java.net.ConnectException: Connection timed out,请问是什么问题?
Exception:com.sun.jersey.api.client.ClientHandlerException Message: java.net.ConnectException: Connection timed out,请问是什么问题?
相关推荐
在日常的开发和使用中,我们经常需要借助各种小工具来提高工作效率,例如快速启动常用的应用程序、管理文件等。一个简单但功能强大的集成工具箱可以帮助用户快速访问、启动并管理程序。今天,我们将以Python为基础,结合Tkinter和Win32API,开发一个类似Windows快捷方式的工具箱应用,能够让你轻松集成各种常用程序并一键启动
django自建博客app
《基于YOLOv8的智慧校园实验室高压灭菌锅安全联锁系统》(包含源码、可视化界面、完整数据集、部署教程)简单部署即可运行。功能完善、操作简单,适合毕设或课程设计
用于hifi测序数据的基因组组装程序
Microsoft Access 2010 数据库引擎可再发行程序包AccessDatabaseEngine-X64解压后的文件AceRedist
从大模型、智能体到复杂AI应用系统的构建——以产业大脑为例
自然语言处理之TF-IDF算法与TextRank算法的缠绵_textrank,tf-idf和两者的组合-CSDN博客.html
内容概要:2023版《科学智能 (AI4S)全球发展观察与展望》阐述了AI for Science(AI4S)在全球范围内的最新进展及其对科学和工业的深远影响。文章首先回顾了AI4S在过去一年中的快速发展,特别是在药物研发、材料科学、地质学、污染治理等多个领域的应用实例。AI4S通过结合深度学习、机器学习和其他AI技术,加速了从基础研究到实际应用的转化过程。例如,在药物研发中,AI4S帮助科学家克服了“反摩尔定律”的挑战,提高了新药研发的成功率;在材料科学中,AI4S实现了复杂材料的高效模拟,如人造钻石、石墨烯、碳纳米管等;在地质学中,AI4S通过模拟地球内部结构和物理过程,为地震学研究提供了新视角。此外,文章还探讨了大语言模型(LLMs)与科学方法的结合,指出LLMs不仅能辅助科学研究,还能生成新的科学假设并进行逻辑推理。 适合人群:具备一定科研背景或对AI技术感兴趣的科研人员、工程师、政策制定者及高校师生。
这个数据集包含了日常步数统计、睡眠时长、活跃分钟数以及消耗的卡路里,是个人健康与健身追踪的一部分。 该数据集非常适合用于以下实践: 数据清洗:现实世界中的数据往往包含缺失值、异常值或不一致之处。例如,某些天的步数可能缺失,或者存在不切实际的数值(如10,000小时的睡眠或负数的卡路里消耗)。通过处理这些问题,可以学习如何清理和准备数据进行分析。 探索性分析(发现日常习惯中的模式):可以通过分析找出日常生活中的模式和趋势,比如一周中哪一天人们通常走得最多,或是睡眠时间与活跃程度之间的关系等。 构建可视化图表(步数趋势、睡眠与活动对比图):将数据转换成易于理解的图形形式,有助于更直观地看出数据的趋势和关联。例如,绘制步数随时间变化的趋势图,或是比较睡眠时间和活动量之间的关系图。 数据叙事(将个人风格的追踪转化为可操作的见解):通过讲述故事的方式,把从数据中得到的洞察变成具体的行动建议。例如,根据某人特定时间段内的活动水平和睡眠质量,提供改善健康状况的具体建议。
框架结构天城商业办公楼5200平米(建筑图 结构图 计算书 开题报告 任务书 文献翻.zip
柴油机连杆加工工艺及夹具设计.zip
读书网首页的HTML信息
文字渐变颜色代码生成器:让文字绽放多彩魅力,演示:在信息交流日益丰富的今天,个性化的文字展示成为吸引目光的关键。这款文字渐变颜色代码生成器,便是为满足这一需求而生的绿色软件,无需安装,便捷实用。 它的操作极为简便。用户只需在软件界面中输入想要转换的文字内容,接着从丰富的色彩选项里挑选心仪的起始颜色与结束颜色,随后轻轻按下 “转换按钮”,神奇的事情就此发生 —— 适用于论坛、网页、QQ 空间等多种平台,以及自定义格式的渐变颜色代码便会即刻生成。不仅如此,生成的代码还能自动复制到剪切板,极大地节省了用户手动复制的时间。当你在论坛回帖、更新网页内容或是装扮 QQ 空间时,只需轻松粘贴代码,原本单调的文字瞬间就能拥有绚丽的渐变色彩,瞬间脱颖而出,为你的表达增添独特魅力,让文字不再平凡,轻松成为视觉焦点。 一款可以轻松把一段文字生成渐变颜色代码的绿色软件,当你在软件中输入完要转换的文字后,只需要挑选自己喜欢的起始颜色、结束颜色后,按一下―转换按钮即可生成相应的论坛/网页/QQ空间以及自定义格式代码,并且代码可以自动复制到剪切板中,回帖时直接粘贴代码即可不错得文字代码生成器,让你得文字更加漂亮.
1.【锂电池剩余寿命预测】Transformer锂电池剩余寿命预测(Matlab完整源码和数据) 2.数据集:NASA数据集,已经处理好,B0005电池训练、B0006测试; 3.环境准备:Matlab2023b,可读性强; 4.模型描述:Transformer在各种各样的问题上表现非常出色,现在被广泛使用。 5.领域描述:近年来,随着锂离子电池的能量密度、功率密度逐渐提升,其安全性能与剩余使用寿命预测变得愈发重要。本代码实现了Transformer在该领域的应用。 6.作者介绍:机器学习之心,博客专家认证,机器学习领域创作者,2023博客之星TOP50,主做机器学习和深度学习时序、回归、分类、聚类和降维等程序设计和案例分析,文章底部有博主联系方式。从事Matlab、Python算法仿真工作8年,更多仿真源码、数据集定制私信。
资源内项目源码是来自个人的毕业设计,代码都测试ok,包含源码、数据集、可视化页面和部署说明,可产生核心指标曲线图、混淆矩阵、F1分数曲线、精确率-召回率曲线、验证集预测结果、标签分布图。都是运行成功后才上传资源,毕设答辩评审绝对信服的保底85分以上,放心下载使用,拿来就能用。包含源码、数据集、可视化页面和部署说明一站式服务,拿来就能用的绝对好资源!!! 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、大作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.txt文件,仅供学习参考, 切勿用于商业用途。
资源内项目源码是来自个人的毕业设计,代码都测试ok,包含源码、数据集、可视化页面和部署说明,可产生核心指标曲线图、混淆矩阵、F1分数曲线、精确率-召回率曲线、验证集预测结果、标签分布图。都是运行成功后才上传资源,毕设答辩评审绝对信服的保底85分以上,放心下载使用,拿来就能用。包含源码、数据集、可视化页面和部署说明一站式服务,拿来就能用的绝对好资源!!! 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、大作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.txt文件,仅供学习参考, 切勿用于商业用途。
Android项目原生java语言课程设计,包含LW+ppt
配套文章:https://blog.csdn.net/gust2013/article/details/146909670?spm=1001.2014.3001.5502
《基于YOLOv8的智慧社区儿童游乐设施安全监测系统》(包含源码、可视化界面、完整数据集、部署教程)简单部署即可运行。功能完善、操作简单,适合毕设或课程设计