目录
环境
文档用途
详细信息
环境
系统平台: Linux x86-64 Red Hat Enterprise Linux 7
版本: 4.3.4.8
文档用途
在日常工作中,我们经常会碰到数据信息迁移备份或者恢复的情况,由于editplus和node++等文档查看工具大于2G以上几乎就打不开了,而记事本在sql文件大小超过本机的内存大小之后也无法在打开,就出现了大sql文件无法打开,导入速度慢的情况,所以在此分享一个将文件切割开来的方法,将文件按照行数或者大小进行切分,并且保证数据的完整性,从而解决导入数据慢,文件打不开的情况。
详细信息
一、纯数据切割方法:
1. 将sql文件放置虚拟机上,如test.sql。
2. 然后打开终端,输入命令:
sed "s/insert/\n&/g" test.sql > b.sql
这样是检索test.sql这个文件,检索完成之后生成一个新的b.sql的文件,目的为了根据insert分行。
3. 分行完成之后,继续输入命令:
cat b.sql | head -n 30 > test1.sql
按照分好行的b.sql文件进行分行,分前30行数据,生成一个新的sql文件,为test1.sql文件。
4. 打开分割好的文件可以看到每一个文件都是30行纯insert语句,最后一个文件不足30行数据则显示实际数据行数,
此分割方法只建议按照纯insert语句或者纯数据类语句,多种类型的语句此方法无法满足。
二、按照大小切割方法:
1. 将sql文件放置虚拟机上,如test.sql,test.sql文件大小为13.2MB。
更多详细信息请登录【瀚高技术支持平台】查看 https://support.highgo.com/#/index/docContentHighgo/7b5646f90413abd2