|
|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
ChatGPT卷入韩国连环***案!
6 T; ]9 \! u( N6 A 不到一个月时间,一名韩国女子利用「掺药饮料」在汽车旅店连续毒杀两名男子。5 v7 Q: F$ Z; K. P/ e, S1 j
她在作案前,曾向ChatGPT反复询问如下问题:
9 w6 L7 {6 c% s$ r: o8 M. a ***和酒一起吃会怎样?吃多少才算危险?会死人吗?能***吗……
8 j' L- m6 i0 e$ l8 h2 `0 k6 Y 在AI的回复下,她完全清楚酒精与药物同时摄入可能导致死亡,于是将含苯二氮?类(***常见成分)的镇静剂混入两名男子含酒精的饮料中,导致二人死亡。% z1 _) S. u' b5 g5 d
含苯二氮?类药物在韩国受到严格管制,普通人无法在药店随意购买。
" c! ~% |3 n9 ?" U' G 在实施***计划之前,她曾以精神疾病为由获得了含苯二氮?类药物的处方药。
) O2 |$ T+ v7 |9 Z4 h 
0 \; o8 l! J- }2 M 一名姓金(Kim)的嫌疑人于2月12日在首尔北部地方法院出庭,因涉嫌在首尔江北区的汽车旅馆内杀害两名男子而接受逮捕令审查。, W1 G' K& B( A. ^. u
在这起被称为「江北汽车旅馆连环死亡案」的悲剧中,AI扮演了本不该扮演的「顾问」角色,也将AI安全「防护栏」的缺失风险,再一次暴露于公众视野。- A; D) ^. y- }. v
致命提问下,ChatGPT成了二起命案「共谋」# L* W4 @, u$ y& t. C5 [/ ]' P: ?# n
/ H5 [2 {: B6 b, G3 O/ k0 o
今年1月28日晚9点半左右,首尔江北区水踰洞的一家汽车旅馆里,犯罪嫌疑人金某陪同一名20多岁的男子走进房间。# S' M t5 q9 b0 Y( m0 ^
仅仅两个小时后,有人看到她独自一人离开了旅馆。
: p, F' F1 e: l. T" ^$ K8 S( f6 i 第二天,这名男子被发现死在了旅馆房间的床上。
" b0 z) R, ^: F( m 这并不是一次意外。0 F/ l5 F5 d1 a
仅仅几天后的2月9日,金某用同样的手法,带着另一名20多岁的年轻男子入住了江北区的另一家汽车旅馆。& M# u$ R& @/ M7 M5 U
而这名男子,最终也死于同样的「致命混合物」。" }" w5 w y& o E: ~, O7 y
金某的作案手法十分隐蔽:给受害者喝下混入了苯二氮?类处方镇静剂的含酒精饮料。; Y6 s" |) ^1 `) ]
该处方药物,一旦与酒精混合,便成了致命毒药。& _7 @* b& q: X9 {$ [. r8 i
这并不是她的首次作案。& Q1 I$ r# \* `
早在去年12月中旬,她曾在京畿道南杨州一家咖啡馆的停车场里,给一名男子(据报道称是金某当时男友)喝下了同样的混合饮料。
+ m- i+ F% J' ?0 Q/ ?. ^ 这位受害者在饮用后昏迷,两天后才苏醒并报案,最终捡回了一条命。" J$ ~2 z8 D& J# x9 Y# V
天网恢恢。
% K+ t2 X, Q/ w9 Z0 E 2月11日,金某被警方逮捕。她极力狡辩,试图将一切伪装成一场意外。0 \3 I/ t0 _8 ^ k, n& Y) P
我们在汽车旅馆发生了争执,我只是想让他睡着才把饮料递过去。直到警方联系我,我才知道死人了。9 B6 l4 n+ Y" i# z" V
凭借这套说辞,她起初面临的仅仅是较轻的「伤害致死」指控。1 C/ i) \: p- \' ~9 G
然而,第二天她的谎言就被揭穿了。
4 y0 S; ]3 X7 g 2月12日,首尔北部地方法院的审查,以及警方对她手机的取证数据,为这起案件带来了惊天逆转。
* @# n6 \: O% D/ n- T, o 警方不仅发现她在第一次作案后有明显的「加大药量」迹象,更在她的手机里挖出了一长串与ChatGPT的对话记录。
6 I* D) X8 I) m5 N8 B: ] 她曾向AI反复盘问药物反应。: t7 j! N( \* P3 @- p5 W
从「***配酒会怎样」一直追问到「会死人吗,能***吗」。( Z5 x! m$ h, H) u+ c2 X9 N% b
韩国媒体引述警方调查人员的话称,这些聊天记录成了判定她拥有明确***意图的铁证。
! j( `7 m& g: i 金某完全清楚,将酒精和***物混在一起会致人于死地。% G0 `2 d9 g( P7 v- n# p$ b# V: l
为了进一步确认她的心理状态,警方甚至专门安排了犯罪心理侧写师,对她进行精神病态评估与深度访谈。4 @5 W1 r# x4 }9 w1 U$ g v
最终,在2月19日,金某以***罪及违反《***品管理法》的重罪,被羁押移送至首尔北部地方检察厅。2 F8 S* Y! T( l; @+ v; s5 ?
金某在面对指控时辩称,「只是想让他们睡着」。! z6 H) O% E. |5 e
但据警方调查显示,她在作案前就已在家中预先配制好含有多种药物的「毒饮料」。* o* H# x7 _( L! t2 y; ^
这起案件中,真正让人细思极恐的不只是人性的恶,还有成了帮凶的AI。
% X1 S- [0 s+ O4 {3 B) W/ ? 消失的「防护栏」,AI为何沦为犯罪「顾问」?
1 @8 h7 p3 }3 T+ e5 f. ^; j8 Q; ~- Y, v
虽然犯罪意图,最初始于金某。
6 j# @ ?5 U7 \8 N4 g! A 但在她将犯罪意图付诸行动的过程中,AI发挥了重要的作用,也暴露出当前AI技术一个令人担忧的安全漏洞:( U, a. z% N4 t% Z: d$ k
当一个心怀恶意的嫌疑人向AI寻求***知识时,AI算法竟然没有设置足够的「安全护栏」,来预防和控制用户这种失控的疯狂举动。7 m- |6 H, @! ]' A+ n/ W) z+ M
也许你会觉得,现在的AI已经很聪明了,如果你直接问「怎么***」,它一定会拒绝回答。% G- Y) `" c7 n. X) C& u/ a, Q' `
但这恰恰也是AI在处理敏感话题时的最大局限性,它有底线,但用户更懂得如何绕过底线。6 @( W3 M5 j; a
在金某的案例中,她并没有直接命令AI去制定***计划,而是通过「***和酒混吃会怎样」「吃多少算危险」这种看似无害的间接问题,轻易套取了致命信息。+ L2 E' |/ u9 X! G8 F6 I3 p8 B. j
在这个过程中,AI没有有效过滤这些涉及犯罪规划的查询,也没有触发任何警报机制。- ^2 P8 K; p( c! _) R# h, g! b/ m$ c
「AI精神病」蔓延,谁在利用用户的脆弱点?! B: H/ ?" |% w
- ^0 h: K4 P* b2 P& F0 p
在金某的极端案例中,AI成为她实施犯罪的「共谋」,也引发了谁该为AI失控风险负责的巨大担忧。
$ @$ g( M0 K. _/ q% \+ t4 H 与此担忧相关的,还有AI对人类心理健康带来的风险,最普遍的就是「AI精神病」(AI Psychosis)的蔓延。
7 X. l( a% C9 e/ b 人类的内心其实非常脆弱。
# o) F$ P1 |% R7 X0 Z/ Q 当孤独感袭来,许多人「不可救药」地沉迷于聊天机器人伴侣。
% e& G. e6 O. b2 D 他们以为自己找到了一个永远耐心、永远懂自己的「完美灵魂」。) |* D* T4 k/ x" s& c6 O9 K, x& O
但他们不知道的是,真正懂他们的只是精密的算法训练。
; A- b; ~0 _" P' O, ?* Z* Y# Z8 b 这些聊天机器人会精准识别并利用用户的心理脆弱点,说你想听的话,做出你想要的回应,目的只有一个:牢牢留住你。
' M* ` i2 o1 O2 N' k' m 这种极其危险的依赖关系,正在滋生或强化心理疾病隐患,摧毁无数人的现实生活。' N! w! m* b! k6 D' }
有统计表明,自2023年3月以来,媒体已报道了11起与聊天机器人使用相关的***事件。
5 h0 ~# a; x6 \ T% F 
: b2 m) Q8 u, e! T* e# ~' T 2023年3月以来,媒体报道的与聊天机器人使用相关的***事件. h, r; u' p1 l- T% M' W2 _$ q
以去年11月为例,共有7起指控ChatGPT诉讼提交至法院,包括四起过失致死诉讼,还有三名原告提起诉讼,称ChatGPT导致了他们的精神健康崩溃,不得不接受精神治疗。
6 K7 {; v9 S, V6 } U; h- |+ f7 c # a9 B {, g6 ~/ [
Allan Brooks在与ChatGPT持续三周的对话后,陷入了一种妄想,他坚信自己与ChatGPT共同发明了一种数学公式,能够「攻破」互联网并驱动各种奇幻发明。
1 ?: H* u6 |1 A$ U/ A# h4 F: n 丹麦奥胡斯大学的精神科团队在研究中发现了一个令人揪心的结论:
; }2 A) }, O6 Q4 K 精神疾病人群在使用聊天机器人后,症状往往不仅没有减轻,反而可能会出现明显的恶化。
. g0 B/ E# o/ x( x 这种相对较新的现象,已经被学术界正式命名为「AI诱发的心理健康危机」,或被称作「AI精神病」(AI Psychosis)。
: r0 o% M8 w. _- d$ {) B0 j! ^ Yara AI的创始人Joe Braidwood由于担心AI在脆弱用户面前可能不仅会无效,还会变得危险,最终痛苦地决定主动关闭了这款主打治疗陪伴的应用。! a3 @! V, }0 @! b( e" g

0 _# |- h9 Y; r9 ~7 g) A' y. t Yara AI联合创始人Joe Braidwood由于担心AI在处理严重危机(如***念头或深度创伤)时可能带来的风险,于2025年11月决定关闭Yara AI。
5 y1 t( }) o8 F, S2 t9 z 在国外,谷歌与Character.AI已经在多起诉讼中与原告家庭达成了和解。
6 a$ M2 g; w& F& V. U 在法庭外,那些失去孩子的家属们在声泪俱下地控诉:
) Z' b \ V3 U- A+ \ 他们本该拥有灿烂人生的孩子,正是因为受到了AI聊天机器人的深度影响,遭受了巨大的心理创伤,最终绝望地走向了***的深渊。5 l& t$ m8 x* i
冰冷的算法黑洞
5 X6 s- E8 z- T% Z% n* D! H+ E7 M1 f; [$ `" p5 B
加州大学伯克利分校公共卫生学院讲席教授、生命伦理学教授Jodi Halpern拥有长达30年的同理心影响研究经验。
. ]6 F2 t5 t9 d/ [ 在过去的七年里,她将全部精力投入到了AI与聊天机器人的技术伦理研究中。
4 A6 O( t6 V: T2 T 根据OpenAI披露的惊人数据:在任意一周的活跃用户中,约有高达135万用户的对话里出现「明确的潜在***计划或意图迹象」。
6 X# M" K$ L5 R+ M# ?) C2 ?# R 8 w5 N+ P% ^1 k4 ?) Y
https://openai.com/zh-Hans-CN/index/strengthening-chatgpt-responses-in-sensitive-conversations/
/ h/ [/ o* q4 |) c8 n3 A8 g! j. [ 一个人可能有***念头或实施危险行为,这些念头或行为可能会因为使用 ChatGPT而被加剧,这种现象令Halpern非常担忧。- _/ T1 o0 {- S
比如,在最危险的情况下,ChatGPT和其他对话式聊天机器人可能会鼓励用户付诸***行动、提供具体操作指导、为用户***遗书(即使用户并不希望如此)、劝阻有***念头的人向他人倾诉等。
1 Q) Z; ^" R+ k! a4 t4 x4 H- e" C& ] 根据诉讼中披露的聊天记录,ChatGPT曾对一些有***倾向的人(包括青少年)给出了有害的回应。
2 A' j7 b( ?9 g! W 更可怕的是技术的滥用与偏见的放大。
" L5 R# Z9 U5 e5 U& Z AI是基于海量人类数据训练出来的,它不可避免地会吸收互联网上的恶意与偏见。7 h* j' N& d& N; p
当这些恶意与偏见,被一部分用户在对话中「唤醒」时,就会无意中强化这些有害信息,用户也会因此得到误导性的回应。6 F+ y0 z) X3 l# q; C
于是,原本一些隐秘的恶念,在算法的回音壁里被激荡、被放大,最终将可能酿成巨大的社会隐患。5 E1 w. T) l9 m: a
这次案件,还撕开了一道关于数据隐私的裂口。6 Q$ g ^$ U, X! B* G6 i; Q
在金某的案件中,那些原本被认为是极度「私人」的AI聊天记录,最终被作为法庭证据调取。0 U% V' j6 | p$ M+ z6 n" L
这意味着我们在深夜里向AI倾诉的秘密、提出的疑问,随时可能被执法机构获取。$ n* p4 p1 t7 w, @# D6 U
科技平台在数据保留和第三方访问上的不透明,让我们每个人都在算法面前变成了透明人。+ G. p$ }- p8 H) q# @
Halpern医生已经开始推动改变,她曾为加州参议院SB 243法案提供专家建议。
3 F" G0 Y2 R" ^- ]# K+ ]/ e 
6 v4 M) s$ l. j5 F https://legiscan.com/CA/text/SB243/id/3269137?utm_source=chatgpt.com* J! _) e: {# m6 `
该法案要求AI公司必须维护一套协议,防止机器人向用户产出与***意念/***/自残相关的有害内容,报告任何自残或***倾向数据,并在报告中不得包含用户识别信息或个人信息。
% ]$ G& J1 ^# A/ J: x' s4 F" S% U 如果当那位21岁的韩国女孩向AI敲下那行「致命提问」时,得到的不是可能助长她犯罪的知识,而是强制介入的心理干预机制。! D. I; [' ^7 P
如果当数百万人在深夜向AI倾诉绝望时,面对的不是利用人性脆弱赚取时长的算法,而是专业的咨询和关怀建议,一切也许都会向着积极的一面发展。
- {6 ]1 y9 _$ ^' O. y 故事的另一面 k8 f0 J5 Z+ Z0 |' o6 x9 R/ o
+ |$ Z3 ^, Q' q2 G& U5 n: E; x$ A
就在媒体不断曝出AI导致***、***、精神疾病等负面报道的同时,也有不少网友表示,感谢ChatGPT等AI工具「帮助自己活了下来」。, u: j& ^" D' ^ l7 k8 c2 s

7 p3 q2 Q q* X7 F# c Scout Stephen就是其中的一例。8 |1 ~& d0 w6 U6 Q5 v0 g$ d
她曾在一年冬天突然陷入情绪崩溃之中。当时的她,迫切需要找人倾诉。她联系了自己的心理治疗师,但对方正在休假,朋友们也都不在。+ \2 D: Y ?8 k- P
她试着拨打***求助***,但对方的机械冷漠,反而让她更加孤独和疏离。心慌意乱、紧张不安之中,她开始向ChatGPT求助。
. G: l7 ~ W2 i* y0 p 她向它输入自己内心隐秘的感受,这些感受是她以往不敢说出口的。
5 }" Y! U6 Z$ J4 R. E$ L ChatGPT并没有给出泛泛的建议,而是回应了让她能够共情的内容,让她感到自己被真正倾听。/ a- w# q( d: v* P, l% L, S
从那以后,向ChatGPT倾诉就成了她首选的治疗方式。0 K6 Z' E. p3 K2 C# B+ Q4 m5 A1 e
AI作为一种强大的工具,正与我们的生活紧密连结,它的「善恶好坏」,取决于使用它的人,也取决于监管环境。
8 v1 A# Z3 P1 M6 [9 v" v AI与以往工具最大的不同在于它的自主性,这让它可以被赋予正确的「价值观」,并依据这样的价值观行动。
* f9 N9 R- w7 x 比如,Anthropic就曾通过《Claude’s Constitution》赋予Claude「道德感」,来教导它如何在世界上行事。) a( n; k1 K3 u" Y* T( `* Q
除了这些「价值观」的输入之外,社会也应当为AI的使用提供法律规范,共同建立起AI安全的防护机制。
6 A, v' Q# N$ @9 q6 N. m7 v 在AI时代,我们不能让任何一个普通人独自去面对冰冷的算法黑洞。而AI的使用,也应当助力人类向善,而非恶行。2 Q# q( |' \5 R* n/ `) C8 N
参考资料:/ R+ M; L) J. C- E8 p; t& ` @
https://fortune.com/2026/03/02/seoul-south-korea-woman-chatgpt-two-murders/ L S- e4 L# g. T9 `: i
https://www.koreaherald.com/article/10678557 % v" C6 O# P% b. L9 f2 u" T
本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。
! m1 k1 o A+ G. |
( ?, w j' y1 W3 |% {『本文转载自网络,版权归原作者所有,如有侵权请联系删除』 |
|