在数字化时代,AI正逐步渗透到医疗健康领域,提供更便捷的诊断辅助工具。然而,当科技巨头埃隆·马斯克公开鼓励用户将个人医疗数据上传至其开发的Grok AI以获取“第二意见”时,这一举动迅速引发了广泛争议。
近日,马斯克在社交平台X上转发了一篇帖子,赞扬Grok 4.20版本在分析血检报告和医疗影像方面的出色表现。他建议用户“只需拍一张医疗数据的照片或上传文件,就能从Grok获取第二意见”。这一声明并非首次出现,早在2024年10月,马斯克就曾呼吁用户提交X射线、PET扫描或MRI图像给Grok进行分析,并声称其准确性“已经相当不错,并将变得极其出色”。甚至在2026年1月,一段马斯克的旧视频重新流传,其中他表示在某些情况下,Grok的表现“比医生更好”。
Grok是由马斯克旗下的xAI公司开发的聊天机器人,集成于X平台。它能快速解读医疗影像和实验室检测报告。例如,用户上传血液报告后,Grok可分析指标异常,并给出初步见解。这种功能在理论上能为患者提供即时反馈,避免漫长的等待医生回复。然而,Grok自身在回应用户查询时,却明确表示它“不是医疗专业人士,也未遵守HIPAA规定”,并强烈建议用户不要分享敏感信息,而是咨询医生。这一自我警示与马斯克的热情推广形成鲜明对比,也凸显了内部认知的分歧。尽管Grok的便利性吸引了不少用户尝试,但医疗隐私专家对此表达了强烈担忧。范德比尔特大学生物医学信息学教授Bradley Malin指出,医疗数据是“高度个人信息,用户并不清楚Grok会如何处理它”。宾夕法尼亚大学医学伦理与健康政策助理教授Matthew McCoy则形容这种分享为“自担风险”,因为在X平台上上传的数据不受HIPAA保护,这意味着xAI和X公司无需遵守医院级别的隐私义务。此外,医疗科技公司Avandra Imaging的首席执行官Ryan Tarzy强调,直接从社交媒体用户获取数据可能导致患者身份意外泄露,因为这些数据往往未经过专业去标识化处理。实际案例也印证了这些风险:2025年8月,Grok的聊天记录被搜索引擎索引,导致超过37万条用户对话曝光,其中包括医疗状况查询和敏感个人信息。牛津互联网研究所副教授Luc Rocher将AI聊天机器人描述为“隐私灾难的进行时”。目前,欧盟监管机构已介入。2026年2月17日,爱尔兰数据保护委员会启动了对X平台的调查,焦点在于Grok处理用户数据的方式,包括非自愿图像生成。此前,2024年8月,欧盟曾强制X暂停使用欧盟用户数据训练Grok。这些行动反映出国际社会对AI在医疗应用中数据滥用潜力的警惕。除了隐私,Grok在医疗诊断的准确性上也备受质疑。有医生测评显示,Grok曾误判结核病、将锁骨骨折混淆为肩部损伤,甚至错误解读良性乳腺X光片。乳腺放射科医生Laura Heacock在测评中发现,Grok对乳腺X光、超声和MRI的诊断无一正确,这些错误可能导致不必要的检查或延误治疗。一项2025年5月发表在《Diagnostics》杂志的同行评审研究评估了Grok与其他AI在脑部MRI切片上的表现,虽然Grok表现最佳,但仍存在局限性。
相比之下,其他AI如OpenAI的ChatGPT Health明确避免使用健康对话训练模型,体现了更谨慎的伦理路径。
不可否认,AI确实能让医疗变得更高效、更普及。马斯克的激进尝试或许会缩短AI诊断的成熟期,但医疗从来不是单纯的代码竞赛,它关乎人的生命与尊严。- 隐私底线: 敏感数据不应成为科技巨头无偿收割的“数字石油”。
在Grok进化成真正的“数字医生”之前,请谨慎对待你手中的那张医学影像。毕竟,在互联网上,一旦你失去了隐私,就永远无法找回。特别声明:智慧医疗网转载其他网站内容,出于传递更多信息而非盈利之目的,同时并不代表赞成其观点或证实其描述,内容仅供参考。版权归原作者所有,若有侵权,请联系我们删除。
凡来源注明智慧医疗网的内容为智慧医疗网原创,转载需获授权。