明明加了唯一索引,为什么还是产生了重复数据?

3A网络
• 阅读 460

明明加了唯一索引,为什么还是产生了重复数据?

前言

前段时间我踩过一个坑:在 mysql8 的一张 innodb 引擎的中,加了唯一索引,但最后发现数据竟然还是重复了。

到底怎么回事呢?

本文通过一次踩坑经历,聊聊唯一索引,一些有意思的知识点。

明明加了唯一索引,为什么还是产生了重复数据?

1. 还原问题现场

前段时间,为了防止商品组产生重复的数据,我专门加了一张防重表

如果大家对防重表,比较感兴趣,可以看看我的另一篇文章 《高并发下如何防重?》,里面有详细的介绍。

问题就出在商品组的防重表上。

具体表结构如下:

CREATE TABLE `product_group_unique` (
  `id` bigint NOT NULL,
  `category_id` bigint NOT NULL,
  `unit_id` bigint NOT NULL,
  `model_hash` varchar(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `in_date` datetime NOT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;

为了保证数据的唯一性,我给那种商品组防重表,建了唯一索引:

alter table product_group_unique add unique index 
ux_category_unit_model(category_id,unit_id,model_hash);

根据分类编号、单位编号和商品组属性的 hash 值,可以唯一确定一个商品组。

给商品组防重表创建了唯一索引之后,第二天查看数据,发现该表中竟然产生了重复的数据: 明明加了唯一索引,为什么还是产生了重复数据? 表中第二条数据和第三条数据重复了。

这是为什么呢?

2. 唯一索引字段包含 null

如果你仔细查看表中的数据,会发现其中一个比较特殊地方:商品组属性的 hash 值(model_hash 字段)可能为 null,即商品组允许不配置任何属性。

在 product_group_unique 表中插入了一条 model_hash 字段等于 100 的重复数据: 明明加了唯一索引,为什么还是产生了重复数据? 执行结果: 明明加了唯一索引,为什么还是产生了重复数据? 从上图中看出,mysql 的唯一性约束生效了,重复数据被拦截了。

接下来,我们再插入两条 model_hash 为 null 的数据,其中第三条数据跟第二条数据中 category_id、unit_id 和 model_hash 字段值都一样。 明明加了唯一索引,为什么还是产生了重复数据? 从图中看出,竟然执行成功了。

换句话说,如果唯一索引的字段中,出现了 null 值,则唯一性约束不会生效。

最终插入的数据情况是这样的:

  1. 当 model_hash 字段不为空时,不会产生重复的数据。
  2. 当 model_hash 字段为空时,会生成重复的数据。

我们需要特别注意:创建唯一索引的字段,都不能允许为 null,否则 mysql 的唯一性约束可能会失效。

3. 逻辑删除表加唯一索引

我们都知道唯一索引非常简单好用,但有时候,在表中它并不好加。

不信,我们一起往下看。

通常情况下,要删除表的某条记录的话,如果用 delete 语句操作的话。

例如:

delete from product where id=123;

这种 delete 操作是物理删除,即该记录被删除之后,后续通过 sql 语句基本查不出来。(不过通过其他技术手段可以找回,那是后话了)

还有另外一种是逻辑删除,主要是通过 update 语句操作的。

例如:

update product set delete_status=1,edit_time=now(3) 
where id=123;

逻辑删除需要在表中额外增加一个删除状态字段,用于记录数据是否被删除。在所有的业务查询的地方,都需要过滤掉已经删除的数据。

通过这种方式删除数据之后,数据任然还在表中,只是从逻辑上过滤了删除状态的数据而已。

其实对于这种逻辑删除的表,是没法加唯一索引的。

为什么呢?

假设之前给商品表中的 namemodel 加了唯一索引,如果用户把某条记录删除了,delete_status 设置成 1 了。后来,该用户发现不对,又重新添加了一模一样的商品。

由于唯一索引的存在,该用户第二次添加商品会失败,即使该商品已经被删除了,也没法再添加了。

这个问题显然有点严重。

有人可能会说:把 namemodeldelete_status 三个字段同时做成唯一索引不就行了?

答:这样做确实可以解决用户逻辑删除了某个商品,后来又重新添加相同的商品时,添加不了的问题。但如果第二次添加的商品,又被删除了。该用户第三次添加相同的商品,不也出现问题了?

由此可见,如果表中有逻辑删除功能,是不方便创建唯一索引的。

但如果真的想给包含逻辑删除的表,增加唯一索引,该怎么办呢?

3.1 删除状态 + 1

通过前面知道,如果表中有逻辑删除功能,是不方便创建唯一索引的。

其根本原因是,记录被删除之后,delete_status 会被设置成 1,默认是 0。相同的记录第二次删除的时候,delete_status 被设置成 1,但由于创建了唯一索引(把 name、model 和 delete_status 三个字段同时做成唯一索引),数据库中已存在 delete_status 为 1 的记录,所以这次会操作失败。

我们为啥不换一种思考:不要纠结于 delete_status 为 1,表示删除,当 delete_status 为 1、2、3 等等,只要大于 1 都表示删除。

这样的话,每次删除都获取那条相同记录的最大删除状态,然后加 1。

这样数据操作过程变成:

  1. 添加记录 a,delete_status=0。
  2. 删除记录 a,delete_status=1。
  3. 添加记录 a,delete_status=0。
  4. 删除记录 a,delete_status=2。
  5. 添加记录 a,delete_status=0。
  6. 删除记录 a,delete_status=3。

由于记录 a,每次删除时,delete_status 都不一样,所以可以保证唯一性。

该方案的优点是:不用调整字段,非常简单和直接。

缺点是:可能需要修改 sql 逻辑,特别是有些查询 sql 语句,有些使用 delete_status=1 判断删除状态的,需要改成 delete_status>=1。

3.2 增加时间戳字段

导致逻辑删除表,不好加唯一索引最根本的地方在逻辑删除那里。

我们为什么不加个字段,专门处理逻辑删除的功能呢?

答:可以增加时间戳字段。

把 name、model、delete_status 和 timeStamp,四个字段同时做成唯一索引

在添加数据时,timeStamp 字段写入默认值 1

然后一旦有逻辑删除操作,则自动往该字段写入时间戳。

这样即使是同一条记录,逻辑删除多次,每次生成的时间戳也不一样,也能保证数据的唯一性。

时间戳一般精确到

除非在那种极限并发的场景下,对同一条记录,两次不同的逻辑删除操作,产生了相同的时间戳。

这时可以将时间戳精确到毫秒

该方案的优点是:可以在不改变已有代码逻辑的基础上,通过增加新字段实现了数据的唯一性。

缺点是:在极限的情况下,可能还是会产生重复数据。

3.3 增加 id 字段

其实,增加时间戳字段基本可以解决问题。但在在极限的情况下,可能还是会产生重复数据。

有没有办法解决这个问题呢?

答:增加主键字段:delete_id。

该方案的思路跟增加时间戳字段一致,即在添加数据时给 delete_id 设置默认值 1,然后在逻辑删除时,给 delete_id 赋值成当前记录的主键 id。

把 name、model、delete_status 和 delete_id,四个字段同时做成唯一索引。

这可能是最优方案,无需修改已有删除逻辑,也能保证数据的唯一性。

4. 重复历史数据如何加唯一索引?

前面聊过如果表中有逻辑删除功能,不太好加唯一索引,但通过文中介绍的三种方案,可以顺利的加上唯一索引。

但来自灵魂的一问:如果某张表中,已存在历史重复数据,该如何加索引呢?

最简单的做法是,增加一张防重表,然后把数据初始化进去。

可以写一条类似这样的 sql:

insert into product_unqiue(id,name,category_id,unit_id,model) 
select max(id), select name,category_id,unit_id,model from product
group by name,category_id,unit_id,model;

这样做可以是可以,但今天的主题是直接在原表中加唯一索引,不用防重表。

那么,这个唯一索引该怎么加呢?

其实可以借鉴上一节中,增加 id 字段的思路。

增加一个 delete_id 字段。

不过在给 product 表创建唯一索引之前,先要做数据处理。

获取相同记录的最大 id:

select max(id), select name,category_id,unit_id,model from product
group by name,category_id,unit_id,model;

然后将 delete_id 字段设置成 1。

然后将其他的相同记录的 delete_id 字段,设置成当前的主键。

这样就能区分历史的重复数据了。

当所有的 delete_id 字段都设置了值之后,就能给 name、model、delete_status 和 delete_id,四个字段加唯一索引了。

完美。

5. 给大字段加唯一索引

接下来,我们聊一个有趣的话题:如何给大字段增加唯一索引。

有时候,我们需要给几个字段同时加一个唯一索引,比如给 name、model、delete_status 和 delete_id 等。

但如果 model 字段很大,这样就会导致该唯一索引,可能会占用较多存储空间。

我们都知道唯一索引,也会走索引。

如果在索引的各个节点中存大数据,检索效率会非常低。

由此,有必要对唯一索引长度做限制。

目前 mysql innodb 存储引擎中索引允许的最大长度是 3072 bytes,其中 unqiue key 最大长度是 1000 bytes。

如果字段太大了,超过了 1000 bytes,显然是没法加唯一索引的。

此时,有没有解决办法呢?

5.1 增加 hash 字段

我们可以增加一个 hash 字段,取大字段的 hash 值,生成一个较短的新值。该值可以通过一些 hash 算法生成,固定长度 16 位或者 32 位等。

我们只需要给 name、hash、delete_status 和 delete_id 字段,增加唯一索引。

这样就能避免唯一索引太长的问题。

但它也会带来一个新问题:

一般 hash 算法会产生 hash 冲突,即两个不同的值,通过 hash 算法生成值相同。

当然如果还有其他字段可以区分,比如:name,并且业务上允许这种重复的数据,不写入数据库,该方案也是可行的。

5.2 不加唯一索引

如果实在不好加唯一索引,就不加唯一索引,通过其他技术手段保证唯一性。

如果新增数据的入口比较少,比如只有 job,或者数据导入,可以单线程顺序执行,这样就能保证表中的数据不重复。

如果新增数据的入口比较多,最终都发 mq 消息,在 mq 消费者中单线程处理。

5.3 redis 分布式锁

由于字段太大了,在 mysql 中不好加唯一索引,为什么不用 redis分布式锁呢?

但如果直接加给 name、model、delete_status 和 delete_id 字段,加 redis分布式锁,显然没啥意义,效率也不会高。

我们可以结合 5.1 章节,用 name、model、delete_status 和 delete_id 字段,生成一个 hash 值,然后给这个新值加锁。

即使遇到 hash 冲突也没关系,在并发的情况下,毕竟是小概率事件。

明明加了唯一索引,为什么还是产生了重复数据?

6. 批量插入数据

有些小伙们,可能认为,既然有 redis 分布式锁了,就可以不用唯一索引了。

那是你没遇到,批量插入数据的场景。

假如通过查询操作之后,发现有一个集合:list 的数据,需要批量插入数据库。

如果使用 redis 分布式锁,需要这样操作:

for(Product product: list) {
   try {
        String hash = hash(product);
        rLock.lock(hash);
        //查询数据
        //插入数据
    } catch (InterruptedException e) {
       log.error(e);
    } finally {
        rLock.unlock();
    }
}

需要在一个循环中,给每条数据都加锁。

这样性能肯定不会好。

以上的环境博主都是部署在3A服务器上,感兴趣的伙伴可以自己部署一套环境进行测试。

当然有些小伙伴持反对意见,说使用 redis 的 pipeline 批量操作不就可以了?

也就是一次性给 500 条,或者 1000 条数据上锁,最后使用完一次性释放这些锁?

想想都有点不靠谱,这个锁得有多大呀。

极容易造成锁超时,比如业务代码都没有执行完,锁的过期时间就已经到了。

针对这种批量操作,如果此时使用 mysql 的唯一索引,直接批量 insert 即可,一条 sql 语句就能搞定。

数据库会自动判断,如果存在重复的数据,会报错。如果不存在重复数据,才允许插入数据。

点赞
收藏
评论区
推荐文章
Wesley13 Wesley13
3年前
SQL
当数据库中数据量特别大的时候,查询的速度就比较慢,这时候需要添加索引,来提高查询速度。索引的优点1通过创建唯一索引,可以保证数据库表中每行数据的唯一性。2加快数据查询速度3在使用分组和排序进行数据查询时,可以显著的减少查询中分组和排序的时间索引的缺点1维护索引需要消耗数据库资源2索引需要占用磁盘空间,索引文件可能会比数据
Easter79 Easter79
3年前
sqlserver2005创建唯一约束的方法
对于一个表中非主键列的指定列,唯一(UNIQUE约束|:强制非主键上的实体完整性的约束。UNIQUE约束确保未输入重复值,并创建一个索引以增强性能。)约束确保不会输入重复的值。例如,在employee表中emp\_id列是主键,可以定义一个唯一约束来要求表中社会安全号码(ssn)列的项是唯一的。在数据库关系图中,可以使用"索引/键"属性页创建、
Wesley13 Wesley13
3年前
mysql存在则更新,不存在则插入
INSERTINTOONDUPLICATEKEYUPDATE与REPLACEINTO,两个命令可以处理重复键值问题,在实际上它之间有什么区别呢?前提条件是这个表必须有一个唯一索引或主键。unique1、REPLACE发现重复的先删除再插入,如果记录有多个字段,在插入的时候如果有的字段没有赋值,那么新插入的记录这些字段
Wesley13 Wesley13
3年前
MySQL表介绍
MySQLInnoDB表介绍一、索引组织表在InnoDB引擎中,表都是根据主键顺序存放的。这种存储方式称为索引组织表,在InnoDB引擎中,每张表都有逐渐。如果没有显示定义主键,则引擎会按照以下方式选择或创建主键。(1)、判断表是否有非空唯一索引,如果有,则该字段为主键。如果有多个非空唯一索引,则选择第一个定义的非空索引字段作为
Wesley13 Wesley13
3年前
Mysql 主外键与索引之间的区别和联系
系数据库依赖于主键,它是数据库物理模式的基石。主键在物理层面上只有两个用途: 惟一地标识一行。 作为一个可以被外键有效引用的对象。 索引是一种特殊的文件(InnoDB数据表上的索引是表空间的一个组成部分),它们包含着对数据表里所有记录的引用指针。下面是主键和索引的一些区别与联系。 1\.主键一定是唯一性索引,唯一性索
Wesley13 Wesley13
3年前
Mysql索引最佳实践笔记0524
mysql5.7innodb默认存储引擎一、关于索引二、最佳实践三、避坑实践一、关于索引1.索引的作用提高查询效率数据分组、排序避免回表查询优化聚集查询用于多表join关联查询利用唯一性约束、保证数据唯一性innodb行锁实现索引的“
Wesley13 Wesley13
3年前
Oracle 建立索引及SQL优化
数据库索引:索引有单列索引复合索引之说如何某表的某个字段有主键约束和唯一性约束,则Oracle则会自动在相应的约束列上建议唯一索引。数据库索引主要进行提高访问速度。建设原则: 1、索引应该经常建在Where子句经常用到的列上。如果某个大表经常使用某个字段进行查询,并且检索行数小于总表行数的5%。则应该考虑。 2、对于两表连接的字段,
Wesley13 Wesley13
3年前
MySQL 处理重复数据
有些MySQL数据表中可能存在重复的记录,有些情况我们允许重复数据的存在,但有时候我们也需要删除这些重复的数据。本章节我们将为大家介绍如何防止数据表出现重复数据及如何删除数据表中的重复数据。防止表中出现重复数据你可以在MySQL数据表中设置指定的字段为PRIMARYKEY(主键)或者UNIQUE(唯一)索引来保证数据的唯一性
liam liam
2年前
用了这个API协作调试工具,忘记了postman
我如何接触到的Apifox今年三四月份的时候,公司已经上线的项目,发现有部分接口存在重复提交的情况,接口也没做好幂等,导致数据库落下了大量重复数据,于是我就开始优化接口,加了redis分布式锁和一些防重校验,好了,背景介绍完毕。锁是加上
京东云开发者 京东云开发者
2个月前
自增主键去哪了?---一次开发过程中的思考
前情提要:最近新接了一个需求,需要去创建两张表,其中有一张表需要根据业务id和业务类型建立唯一索引,对数据唯一性进行约束。因为涉及到业务嘛,表结构就进行缩略了表结构示例如下:CREATETABLEexampletable(idbigint(20)unsig