为了更好的测试MYSQL性能以及程序优化,不得不去制作海量数据来测试。我这里的方法就是直接用uuid函数进行分配每条数据的不同内容。
1.首先创建测试表(card表)
CREATE DATABASE IF NOT EXISTS `test` DEFAULT CHARSET utf8 COLLATE utf8_general_ci; DROP TABLE IF EXISTS `card`; CREATE TABLE `card` ( `card_id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT 'ID', `card_number` varchar(100) DEFAULT NULL COMMENT '卡号', PRIMARY KEY (`card_id`) ) ENGINE=MyISAM AUTO_INCREMENT=0 DEFAULT CHARSET=utf8 CHECKSUM=1 DELAY_KEY_WRITE=1 ROW_FORMAT=DYNAMIC
2.创建MYSQL存储过程
DROP PROCEDURE IF EXISTS proc1; DELIMITER $$ SET AUTOCOMMIT = 0$$ CREATE PROCEDURE proc1() BEGIN DECLARE v_cnt DECIMAL (10) DEFAULT 0 ; dd:LOOP INSERT INTO card (card_number) VALUES (UUID()); COMMIT; SET v_cnt = v_cnt+1 ; IF v_cnt = 10000000 THEN LEAVE dd; END IF; END LOOP dd ; END;$$ DELIMITER ;
3.调用存储过程,生成对应的测试数据
call proc1;
我的机子大概是2分13秒的样子生成完毕,每个人的机子各有不同,生成的时间也会不一样。
4.来测试一下性能吧。
select * from card order by rand() limit 1; //6.5秒查询完毕 select * from card where card_number like '%xxx%'; //3.7秒查询完毕
在这样的海量数据情况下,如果用到模糊查询,那肯定会很慢,一般建议用全文检索引擎来替代(如Sphinx),查询速度就完全解决。
可以参考此文:
相关推荐
Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql测试数据。Mysql...
mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据
本文将围绕“mysql百万级测试数据下载 300W条”这个主题,深入探讨如何处理和利用这样的大数据量进行测试。 首先,`test.sql`文件是一个MySQL数据库的SQL脚本文件,通常包含创建表结构、插入数据等操作。在这个场景...
"MySQL 百万级数据测试"这个主题涉及到了在高容量数据环境下的数据库操作,尤其是如何高效地导入和管理大量数据。MySQL是一个广泛使用的开源关系型数据库管理系统,它以其性能、可靠性和易用性而受到青睐。 首先,...
MySQL30W测试数据是针对数据库性能评估、功能测试或应用开发中常用的一类资源,通常包含大量的模拟真实业务场景的记录。在这个场景下,30W代表有三十万条数据,这是一份用于测试的数据库样本,可以用来检验数据库在...
### 千万级Mysql-MongoDB性能对比报告 #### 测试环境配置 - CPU: i5 3.30GHz - 内存: 8GB - 操作系统: Windows 7 #### 测试工具与语言 - **Python**作为测试语言 - **MySQL**版本: 5.1,连接工具为**PyMySQL** -...
mysql 125w条生成的随机数据,近似真实。主要字段有: id,user_name(随机英文字符),real_name(中文名),password(32位),province,city,address,img_url,role_id,telphone,email(正常的邮箱格式),create_time,update_...
在千万级数据测试中,这些脚本可能用于模拟实际业务场景,例如,创建课程表,插入大量课程记录,然后进行各种查询操作,以此来验证ShardingJDBC的分片策略和性能。 在SQL方面,以下是一些关键知识点: 1. **索引...
1.使用人员可以指定迁移数据库类型 如:(orcal,sqlServer,csv 迁移至mysql) 2.在迁移数据库时,可以只迁移指定字段. 3.开发多任务的平台,按权重去执行任务,如:权重为1,1,2,3,4 那么1,1的权重一起执行,执行完毕后2...
在数据库管理领域,MySQL是一个广泛使用的开源关系型数据库系统,尤其在处理大量数据时,其性能和效率备受赞誉。本文将深入探讨如何管理和优化存储着千万级别数据的表,以"t_order"为例,该表可能存在于您提供的...
MySQL官方测试数据集 test_db-master.zip 最多百万级测试数据。github下载地址:https://github.com/datacharmer/test_db。网好的去github下载。
"mysql三百万测试数据.zip" 提供了三百万条测试数据,这使得我们可以模拟大规模数据库环境,对查询效率、索引策略、内存管理、存储引擎等多方面进行深入测试和调优。 1. **性能测试**: 这些测试数据可以帮助我们...
在这个场景中,"mysql测试数据新闻数据城市数据"可能指的是一个用来测试MySQL数据库性能或者功能的样本数据集,包含了新闻和城市相关的信息。这个数据集通常包含各种表,比如新闻表和城市表,用于模拟真实世界的业务...
"批量生成mysql中文测试数据"是一个专门针对这一需求而设计的工具,主要用于生成大量的中文测试数据,以便于开发者进行中文搜索功能的测试和MySQL数据库的优化工作。 这个工具采用PHP语言编写,PHP是一种广泛使用的...
方案一:优化现有mysql数据库。优点:不影响现有业务,源程序不需要修改代码,成本最低。缺点:有优化瓶颈,数据量过亿就玩完了。 方案二:升级数据库类型,换一种100%兼容mysql的数据库。优点:不影响现有业务,源...
数据库,大批量插入测试数据,可用于生成随机数据
本次测试的重点是分析在千万级数据下数据库的查询速度,首先得插入数据,采用 java 程序批量插入 1000 万条数据,分别插入 SQL Server 2008 和 Mysql 5.5 中。批量插入的方法就在 insert values 之后不断添加(…,…....
达梦数据库与mysql数据对比测试数据结果
java快速插入千万级数据,亲测91秒插入1700万数据!!!