谷歌宣布合并DeepMind的卫生部门时,它引发了一场关于数据隐私的重大争议。尽管DeepMind表示它不会将原始患者数据移交给谷歌,但仅仅想到一个技术巨头能够触摸、以识别医疗记录是令人不舒服的。为用户获取大量高质量数据的问题已成为机器学习在医学领域中应用的最大障碍。

如何保护健康和隐私数据?ai人工智能成为关键-而后网

为了解决这个问题,ai人工智能研究人员一直在寻找可以保持数据机密的新机器学习模型训练技术。麻省理工学院最近创建了一种称为分裂神经网络的方法:它允许人们开始训练深度学习模型,而另一个人完成训练。

这种方法背后的想法是允许医院和其他医疗机构在本地使用患者数据训练他们的模型,然后将一半训练的模型发送到集中位置,所有模型将一起完成最后阶段。训练。这个集中的位置,无论是在谷歌云还是其他公司,都看不到原始的患者数据;他们只能看到训练过的模特的一半。

麻省理工学院媒体实验室副教授,该论文的共同作者——Ramesh Raskar将此过程与数据加密进行了比较。他说:“仅仅因为加密,我可以放心地将信用卡数据发送给另一个实体。”在神经网络的前几个阶段,医疗数据模糊不清,以同样的方式保护数据

与此方法和其他旨在保护患者数据安全性的方法相比,该团队发现分裂神经网络需要的计算资源少得多,并且可以生成更准确的模型。