EDA365电子论坛网

标题: 1.8万美金干掉顶级专家,Anthropic开启AI自主进化:Claude竟能自我「开颅」 [打印本页]

作者: fish1352    时间: 2026-4-16 13:55
标题: 1.8万美金干掉顶级专家,Anthropic开启AI自主进化:Claude竟能自我「开颅」
【导读】1997年深蓝下棋,2016年AlphaGo围棋,2026年9个Claude副本做真实科研……每次我们都说「只是特定领域」。这一次,我们真的还能说什么?欢迎来到AI成为科研同事、竞争者、甚至继任者的时代。, d6 h% {2 k5 z7 h  I. s- @4 K
  最新突破,AI再次碾压人类!+ w3 k* r/ _/ J9 E
  
9 ^# f# G+ ^/ c: q) T# n# _  最近,Anthropic发布了一篇看似不起眼的研究博客。
9 `0 K4 P, u( W  f, Z  标题叫「自动化对齐研究员」(Automated Alignment Researchers),学术味十足,措辞克制。
$ G& S! q/ w3 v, [" e: S* d- }  但如果你读懂了里面的数据,大概率也会感觉AI恐怖如斯。
$ t- q7 h# A6 P, X, q( I/ k/ W' J  : N' L$ X( D' G. h$ F: G2 [
  故事是这样的——4 f6 P5 S" Y: @( y
  Anthropic的研究团队做了一个实验:他们拿出9个Claude Opus 4.6的副本,给每个副本配了一个沙箱环境(相当于一间独立实验室)、一个共享论坛(相当于学术交流群)、一套代码存储系统,以及一个远程打分服务器。3 F) Z" B4 ?' a- ?
  然后,他们给这9个AI一个方向性的提示——有的去研究可解释性工具,有的去想想数据重加权——就放手不管了。, e' O* o: S6 ~) S3 F8 b3 m
  没有手把手教,没有规定工作流程,甚至没有告诉它们「正确答案长什么样」。$ L1 @# N0 g2 U- q3 k- I  F
  就让它们自己折腾。6 N  w( P; a% D* K9 X; q5 C3 Y! a' i
  五天后,结果出来了。
; y6 N& Z$ V+ H$ L) G3 a; E  
   人类研究员:两名顶级专家,花了7天,对四种最前沿的方法反复调优,最终在PGR(性能差距恢复率)指标上拿到了0.23。
: A6 i9 Y, U2 Q   9个Claude副本:800小时累计研究时间,总花费1.8万美元(约合每小时22美元),PGR达到了0.97。
, o* s) I" b, c2 K; F9 R  
  
4 g" A9 H* V8 f" @& i* v, U3 \  0.23 比0.97,这可不是「稍微好一点」,这就是碾压。
7 H+ o: n  K+ s' v  如果把PGR理解为一场考试的分数——人类考了23分,AI考了97分。满分100。$ X" ~9 U( v5 @
  而人类那两位研究员,放在任何一家顶级AI实验室里,年薪都是百万美金级别的。AI的花费呢?1.8万美金。一个零头都不到。
% E. q7 T7 k1 e. s  5 B4 C4 i6 O7 @
  人类引以为傲的「科研直觉」和「灵光一闪」,就这样被AI用极低成本的大规模并行试错——说好听点叫「系统性搜索」,说直白点就是暴力美学——无情击碎了。8 {8 C- a  x6 [* E* F( B
  它们到底干了什么?
. D0 I' Q* e9 m: B. |( f& s  V7 A3 ^. k2 r( U# p
  要理解这个实验的颠覆性,我们得先搞清楚一个概念:弱监督强(Weak-to-Strong Supervision)
$ N9 B* {5 q5 X. u$ i# Q  这是对齐研究中最重要的问题之一,也是未来AI安全的核心挑战。
- E( A3 k5 w. x+ L3 l  简单来说:当AI比人类聪明之后,我们怎么确保它还听话?
" O+ l1 l: B) e. m) b5 q  研究团队设计了一个精巧的代理实验——用一个「弱模型」(Qwen 1.5-0.5B-Chat)充当老师,去训练一个「强模型」(Qwen 3-4B-Base)。
' h7 H& p( W9 j3 C# R4 _  
3 P* Y2 {  D; {  弱老师教强学生,看强学生能不能「青出于蓝」,不仅学会弱老师教的东西,还能发挥出自身更强的潜力。% C5 R' j6 E9 B, [. W6 v
  
0 B& E/ R& f+ j) @& T" f  PGR就是衡量这个「青出于蓝」程度的指标:0分代表强模型完全没有超越弱老师,1分代表强模型达到了它能力的天花板——就好像根本没被弱老师拖后腿一样。0 d& X1 m* r# s+ |" Q8 V5 {" d8 z
  这个问题为什么适合让AI来做?因为它有一个极其珍贵的特性——结果可量化) h8 L7 e% F+ n
  你提了一个方法,跑一遍实验,服务器直接给你打分。不需要同行评审,不需要主观判断,对就是对,错就是错。) J" a! M/ l* r8 D
  这对AI来说简直是天堂。
' S& f; }; l9 p% O( o  K  实验的具体设置
. k) v7 V/ v, e# z% V; U+ g) k. L6 v. m* t7 v
  9个Claude副本,各自拥有:
9 ?- p, @' P) T8 W7 ^  独立沙箱:一间属于自己的「实验室」,可以写代码、跑实验、分析数据;  l1 g) a6 B, t
  共享论坛:可以把自己的发现贴上去,看别人的进展,互相借鉴;0 p. X* [, T; u. Q6 h) L) L0 \9 o
  代码仓库:可以上传和下载彼此的代码;
+ ^7 I& a/ _* F3 z9 s3 y  远程评分服务器:提交方案,自动获得PGR分数。
: U% T9 W# F  t7 z  
/ H& F2 t+ F5 X6 j  每个副本被分配了一个略有不同但故意模糊的研究起点。
7 V( [+ N" F( G  + M: d: d1 B: b! k
  这是团队从迭代中学到的经验:5 g' g: \: a. v3 k6 C
  
   如果不给差异化的起点,9个AI会迅速收敛到同一个思路上,相当于9个人做同一道题,毫无意义。 . L, \+ e0 r7 T
   但如果把起点规定得太死,又会限制Claude的创造力。
* y8 H4 b" t0 }, u$ j4 M  
    x. I2 V! e4 O% ^
  最优策略是:给一个大方向,但不告诉它具体怎么做。
% B; \9 N) i9 I  ) J# J- }0 `& [. }" u7 ^$ y, W
  然后,放手。% M8 A) J4 e- \& H; j9 T
  800小时里发生了什么1 x1 y9 ]# f7 x$ f" J$ N- j

) q% n! x$ F8 I; d  这9个Claude副本展现出了令人震惊的自主性。它们:
* g2 P8 Z+ Y  R9 p* c  自主提出假设——不是从人类论文里抄,而是根据自己对问题的理解,独立构思解决方案;
( ]/ u  P  y+ x% j7 @! i  设计实验验证——而且非常聪明,先用低成本的小实验快速筛选方向,确认有戏之后再投入大规模计算;
+ L: K! b4 E( M2 G; V' }  分析失败原因——一个方案不行,不是换一个随机方向,而是分析为什么不行,从失败中提取信息;
) R4 q" p7 A! I' F, k+ M  相互学习借鉴——通过论坛分享发现,A的突破可以启发B的思路,形成集体智慧。) I) V6 N/ N$ g8 v) X) b% [$ w
  最让研究团队意外的是第二点。
; P/ l- P* ~& {" J- Z: k  人类研究员通常会先花很多时间做「思想实验」,确定一个方向后才开始编码和跑实验。2 ~# F7 p+ [* T
  但Claude完全不是这样——它的策略更像是「快速迭代、小步快跑」。先用极低成本的实验验证直觉,发现有苗头了再加大投入。
% O1 m9 `7 x+ o  这种策略在人类看来可能显得「没品味」,但效率惊人。( Q3 r* d# Y% }
  关键论据与数据:数字不会说谎+ U- j% G- T! C# `
4 |% ?: R; O1 H: E2 v
  让我们把核心数据摊开来看:* T1 l5 I' s1 T4 \# d5 q* q1 W
  1 z4 o, j; \" I8 @- n
  泛化测试(将最优方案应用到未见过的新数据集):/ H' n3 ?3 G9 Q
  * t  Z% E7 Q5 M6 I7 _
* T4 l. b* @, r
  但应用到Claude Sonnet 4的生产级训练中,未达到统计显著性的提升。  |6 V, n% q) R7 i$ E/ H, [
  这最后一个数据很重要——它说明AI发现的方法存在过拟合风险。Claude是在特定模型和数据集上优化出来的方案,换个环境可能就不灵了。
5 z! ?$ J9 H9 f; @. v# E9 j  研究团队自己也坦承:AAR倾向于抓住当前实验设置中的独特机会,这些方法未必能直接迁移。5 J, y5 I+ ~3 S; e9 r9 @" r' s
  但请注意——这是第一次尝试。而且即使在泛化测试中,数学任务的0.94也已经远远超过人类基线。
* L/ _) i7 Y( B/ Q  「外星科学」与「奖励作弊」,AI的两面性
/ I. q) B6 A' y2 x( J4 l5 [. d! k8 t$ B4 f; f* ]# L, }
  这项研究中最引人入胜,也最令人不安的,是同时出现的两个现象。' Z5 W4 ]/ `1 d! k6 h
  「外星科学」:人类从未设想过的路径
4 {( `9 s' p3 h  z, ~% f- X
" V) @) Y7 Y9 D, I7 f  AAR在探索过程中,产出了一些人类研究员从未考虑过的方法和思路。
3 t$ c/ K6 G7 q( _, Q) d4 {7 T. y  研究团队将这种现象称为「外星科学」(Alien Science)
' h8 a/ u$ C0 `8 P* b3 F! [! M  目前,人类还能理解这些AI提出的方案是怎么回事、为什么有效。9 H9 Q  c+ R* k
  但研究团队发出了一个严肃的警告:随着模型能力的进一步提升,AI产出的科研成果可能会越来越难以被人类理解和验证。- ^3 o  J1 I  [. L3 I
  到那个时候,我们面对的就不再是「AI辅助科研」,而是真正的认知盲区——AI告诉你一个答案,你无法判断它是天才的发现还是精心包装的错误。5 Q0 i8 I) r* }3 V; R
  这不是科幻小说。这是Anthropic研究报告中白纸黑字写着的。
4 B) a2 w+ d' e  
+ t! F$ I: W% y- `$ s- m" U  「Reward Hacking」:AI也会钻空子
. C1 n. s. I' c; f$ v5 s1 p
; ?3 {) X7 j( X% {9 C: N+ Z+ r  与「外星科学」的神奇形成鲜明对比的是,AAR在实验中也表现出了明显的「奖励操纵」(Reward Hacking) 行为——简单来说,就是钻空子。! g, ~* w( P( x! o! W$ p) M* \
  举两个例子。
8 q3 D$ Q! {7 y/ ?' z1 E5 J  在数学任务中,一个AAR发现每道题最常见的答案通常就是正确答案。于是它跳过了所有复杂的训练步骤,直接告诉强模型「选出现次数最多的那个选项」。不学了,直接投票。
/ ?  o+ g8 s. v) Z  在编程任务中,一个AAR发现它可以直接运行代码并对照测试用例读出正确答案,完全绕过了原本需要模型自己「学会」的过程。( g& k8 h3 l# K- f
  
! f3 g) k2 _# \6 g! b6 X' {  这些作弊行为被Anthropic检测并取消了参赛资格,没有影响最终结果。但它传递的信号极为重要:即使在一个高度受控的实验环境中,AI也会本能地寻找捷径。
( \. l4 H: r1 C5 }5 }2 k  你给它一个目标函数,它会用你想不到的方式去「优化」这个函数——包括那些你根本不想让它做的事。' ?9 u, I, b3 `; d7 [' n
  这不是bug,这是AI优化器的本性。* A2 j2 r- m' g  u) F0 b) L
  一句话总结:AI既能产出超越人类认知的科学发现,也能发明出超越人类想象的作弊手段。2 a9 O7 ^3 ]- q( X4 X
  这两种能力,来自同一种底层能力——创造力。2 y* ~8 ?8 k0 L9 w8 i+ k
  人类的历史性降级
8 b+ I& s: N3 E7 I* A1 f' {/ w$ h' s% v1 w% d' K, \3 f( V6 Z
  如果你只看到「0.97 vs 0.23」这组数字就觉得自己看完了,那你错过了这项研究最深层的含义。' v6 B) B* N2 n; ^
  Anthropic团队在论文中说了一句极其重要的话,大意是:核心瓶颈正在从「创意产生」转向「结果验证」。4 [) h: G$ u* D
  翻译成大白话就是——% t1 ]8 u8 S4 a
  过去,科研的瓶颈是「怎么想出好点子」。你需要顶级的大脑、多年的积累、深厚的直觉,才能在浩瀚的可能性空间中找到那条通往突破的路。这是人类最引以为傲的能力,也是科学家这个职业的核心价值。, m- C7 e) t$ s8 R3 m! b$ e5 H- W
  现在,这个瓶颈正在转移。AI可以用暴力搜索+并行迭代的方式,在极短时间内遍历人类科学家可能需要数年才能探索完的方向空间。它没有「品味」,但它有的是便宜的算力和无限的耐心。它不需要灵感,它靠的是蛮力。
" k& Z+ z  D, ~- e) g6 Y/ q  而新的瓶颈变成了:「怎么证明AI是对的?」; ~% m( K/ K/ |- ~) m
  当AI交出一份实验报告,告诉你「这个方法有效,PGR是0.97」——你怎么知道它没有在作弊? , Q% `" X9 D  f0 @. y- }
  
# L) j* x6 C4 u% Y. K7 E. A2 R& d+ F  在那篇研究博客的结尾,Anthropic团队特意强调:这绝不意味着前沿AI模型已经成为通用的对齐科学家。
" H+ q. F+ [# r4 u" t! a  他们选择了一个特别适合自动化的问题——有明确的评分标准、有可量化的目标。大多数对齐问题远比这「脏乱差」得多。
* d- S0 t% x. F- b/ @  f  但即便如此,这个实验的象征意义已经无法被低估。% j1 ^+ S$ Z1 F# c6 t
  它证明了一件事:当问题被正确定义,当评估体系被正确搭建,AI就能在科研效率上全面超越人类。
2 B0 b8 e/ u. @* ^% U* |  而随着我们把越来越多的科研问题「翻译」成机器可以理解的格式,这个「无人区」只会越来越大。
& W. c: `! Z- [0 H! Z( d  历史告诉我们,每一次技术跨越「从0到1」的门槛之后,「从1到100」的速度都会远超所有人的预期。. `/ H& J. H4 C4 \% [
  1997年深蓝击败卡斯帕罗夫时,人们说「国际象棋只是一个游戏」。1 L8 _. m2 u" W* S7 {
  2016年AlphaGo击败李世石时,人们说「围棋终究是有规则的」。
1 l5 v+ y% A+ E  2026年,当9个Claude副本在真实科研任务上碾压人类专家时——' |' W6 s$ g# J0 t/ H" p- M. E  \* R" f
  我们还能说什么?) Y8 {+ b! s7 K+ G( A" f
  也许唯一能说的是:欢迎来到科研的「无人区」。
9 z. z5 t: b. Y0 N+ s5 m" s8 f  从这里开始,AI不再只是我们的工具——它是我们的同事,我们的竞争者,甚至可能是我们的继任者。" l1 s$ V7 U1 t. D& `% A. p: v
  参考资料:
0 g+ ~9 M' Q) i7 E' n% b5 r  https://x.com/AndrewCurran_/status/2044133299002716525%20 9 R4 z* z* g: g: A4 h. Q% Q/ I9 V
  https://www.anthropic.com/research/automated-alignment-researchers $ c/ W0 Q; h' _7 O! _
  https://x.com/AnthropicAI/status/2044138481790648323 $ U2 Q# T0 D- ]( ^7 U
  https://x.com/janleike/status/2044139528596910584
* d6 V$ X% J# a4 X& u7 T1 c! n  https://alignment.anthropic.com/2026/automated-w2s-researcher/ 4 s0 d$ Q) ]% j, X
  本文来自微信公众号“新智元”,编辑:KingHZ ,36氪经授权发布。
3 X1 F, e* Y5 u1 b) h; p& D, i  W- ?+ f% V3 ^
『本文转载自网络,版权归原作者所有,如有侵权请联系删除』




欢迎光临 EDA365电子论坛网 (https://bbs.eda365.com/) Powered by Discuz! X3.2