京公网安备 11010802034615号
经营许可证编号:京B2-20210330
来源:麦叔编程
作者:麦叔
到了过年的时候了,你要回老家过年吗?如果回老家过年,需要做核算检测。我也正在犹豫中。你们做了吗?
核酸检测本身是一个比较费时,费力,费钱的复杂过程,所以现在低风险地区都是采用的10人一组混合检验的。
具体来说就是将采集自10个人的10支拭子样本集合于1个采集管中进行核酸检测。
混检筛查中一旦发现阳性或弱阳性,将会立即进行追溯,通知相关部门对该混采管的10个受试者暂时单独隔离,
并重新采集单管拭子进行复核,再确定这10个人当中到底哪一个是阳性。
如果检测结果是阴性,意味着这10个样本全是阴性,混检的10个人都是安全的。
看到这个过程后,作为程序员的我禁不住拍了一下自己的大腿,这不就是个很简单算法嘛!
但是这个小小的算法把检验的成本降低了接近90%,把检验的速度提高了近10倍!算法真是太奇妙了!
顺着这个思路,有没有更好的算法,进一步加快这个过程呢?理论上来说,如果用二分法,
可以把14亿次检测减少到大概23万次左右。而现在10比1混合检验的次数大约是1.4亿次。
关于算法,本文下面再讨论。咱们先说一个大家关心的问题。
把10个人的样本混在一起,咋一听觉得很不靠谱,实际上还是很靠谱的。但是会不会出现检验不准的情况呢?确实存在一些潜在问题。
以下专业分析来自知乎,作者:返朴https://www.zhihu.com/question/404866690/answer/1326422005
假阴性率会增加,准确度下降。举两个假设的情况给大家解释为什么假阴性率会增加:
情况1:假设使用的是饱受争议的美国CDC的核酸RT-PCR检测试剂盒。这个试剂盒一共测三个新冠基因片段,
其中两个是新冠特异的基因片段,第三个是所有类似于SARS的冠状病毒都有的基因片段。
除此以外,还包括一个控制探针 (control probe)针对人的RNase P基因。这个探针的目的是用来保障取样足够和RNA提纯过程没有出错。
如果取样不够,或者RNA纯化出错导致RNA降解,探针就读不出数值,检测结果就是“无效(invalid)”,还需要重新再测。
如果有位阳性感染者,在鼻咽拭子取样的时候,样本量取得不够。如果对这个样本用美国CDC的核酸试剂盒进行单独的核酸检测,虽然新冠基因是阴性,RNase P控制探针的结果也是阴性,最终结果就显示“无效(invalid)”,还需要重新再测。
然而,如果把这个人的样本和其他4个人混合在一起,进行混合核酸测试——其他4位都是核酸阴性,且取到了足够的样本。这时,用美国CDC的核酸试剂盒去检测5个人的混合样本,测出新冠基因是阴性,RNase P的控制探针是阳性(表明样本取样提纯没有出错),因此得出结论:这5位都是核酸阴性。那位阳性感染者得到的就是一个“假阴性”结果。
情况2:不同核酸检测的设计不同,导致试剂盒的敏感度和特异性也不同。假设所用核酸试剂盒的敏感度是500个新冠RNA/毫升。有一位阳性感染者取样,提纯样本里面的RNA以后,用1µg总RNA量来做RT-PCR,里面包含了500个新冠RNA/毫升,那么检测结果是阳性。可是如果他的样本和其他4个人混在一起检测,还是用1µg总RNA量来做RT-PCR,假设是等量混合,那么他的RNA实际只占~20%。1µg总混合RNA里面大约只有100个新冠RNA/毫升。受试剂盒敏感度的限制,结果会是假阴性。
但这不是说混检就不能实行,而是有一定的限制:
(1)每个样本的采集量要足,否则会出现稀释后出现假阴性的问题
(2)只对低风险地区实行混检
下面用算法简单模拟采样数量和检测数量,其实也不是什么算法,就是两个数学公式:
total_pop = 1400000000 #总人口 rate = 0.00001 #感染率 group_size = 10
#每组人数 check_num = 0
caiyang_num = 0 #计算采用数量:总人数 + 要重复采样的数量 caiyang_num = total_pop
+ (total_pop * rate) *
group_size #计算检测次数:人数除以10 + 重复检测数 check_num = total_pop / group_size
+ (total_pop * rate) *
group_size print(f'采用数:{caiyang_num:,}, 检测数量:{check_num:,}')
运行结果:采用数:1,400,140,000.0, 检测数量:140,140,000.0
假设感染率为10万分之一的情况下,要采样14亿零14万次;要检测1亿4千万零14万次。
如果调整每100人一组检测:采用数:1,401,400,000.0, 检测数量:15,400,000.0
采用数增加了100多万次,而检测次数减少了1亿2千多万次。也就是说分组能极大的减少检测次数。
但是受制于准确度的影响,我们这里只是探讨一下算法。这些算法在计算机的数据处理上,确实起到了把效率提高几万,甚至几十几百万次的效果。
如果用二分查找法,可以进一步减少检测次数减少到23万次。
这里仍然假设10万人有一个感染,也就是10万个人里面找一个人出来。用二分法需要找约17次,那么总的检测次数就是:
group_size = 100000 #10万人一组 group_num = 1400000000 / 100000 # 共1400组 from math
import log #
用2分法每10万人只需要log(10w,2),大约16次检测 check_num = round(log(group_size, 2) * group_num)
print(f'检测数量:{check_num:,}')
计算结果:检测数量:232,535
虽然由于检测准确度的问题,二分法不能实施,但算法的世界真的很奥妙。大家都应该学点编程,学点算法。
下面是二分查找法的Python非递归实现:
#二分查找法,非递归实现 def binary_search(arr, x):
low = 0 high = len(arr) - 1 mid = 0
while low <= high:
mid = (high + low) // 2 if arr[mid] < x:
low = mid + 1
elif arr[mid] > x:
high = mid - 1 else:
return mid
return -1
arr = [ 2, 3, 4, 10, 40 ] x = 10 result = binary_search(arr, x)
下面是递归实现:
def binary_search(arr, low, high, x):
if high >= low:
mid = (high + low) // 2 if arr[mid] == x:
return mid
elif arr[mid] > x:
return binary_search(arr, low, mid - 1, x)
else:
return binary_search(arr, mid + 1, high, x)
else:
return -1
arr = [ 2, 3, 4, 10, 40 ]
x = 10 result = binary_search(arr, 0, len(arr)-1, x)
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09