Thinking Machines发布交互模型,AI终于不再‘等你说完’,而是能边听边回?
aikeji
4小时前
9


今天,Thinking Machines Lab 在推特上扔出一条重磅线程,直接把我看兴奋了。这家由前 OpenAI CTO Mira Murati 参与创立的公司,发布了一套他们从零训练的“Interaction Models”(交互模型)。看完他们的演示视频和技术博客,我的第一感觉是:这可能是今年最接近科幻电影里 JARVIS 的东西了。

不是又一个参数更大、回答更聪明的聊天模型,而是彻底重新思考了“人机怎么一起做事”这个根本问题。

当前AI最尴尬的瓶颈

我们现在用的大模型,智能已经很强了,但用起来总觉得隔着一层。让你写报告,它能一气呵成;让你调试代码,它也能头头是道。可一旦进入真实协作场景--比如边讨论边改方案、一起 brainstorm、或者我突然插一句“等等我刚才想错了”--它们就露馅了。

AI 要么在你说话的时候“冻结”,等你说完再统一回应;要么必须靠外部规则(比如语音活动检测 VAD)来勉强实现实时。但这些补丁式的方案,注定会被更聪明的模型甩开。这就是他们说的“协作瓶颈”(Collaboration Bottleneck)。

人类之间的协作从来不是轮流发言那么简单。我们会同时说话、打断对方、发出“嗯、对”的附和声,一边听一边查资料、画图、改主意。真正的共事,需要共现、共时、同时性。现在的AI,缺的正是这种“一起在场”的感觉。

Thinking Machines 决定不继续在旧框架上打补丁,而是从头训练,让交互能力成为模型智能本身的一部分。规模越大,它不光更聪明,还会协作得更好。

他们到底做到了什么?

看完那些演示视频,我挑几个最戳我的场景说说:

部分内容已折叠,查看完整文章请先登录。 登录后查看完整文章

JARVIS 一直以来都是科幻,但它真正需要的不是更聪明的单体智能,而是一种协作智能。Thinking Machines 这次的尝试,把这个理想拉近了一大步。

我已经迫不及待想亲自试试他们的研究预览了。你呢?你最希望 AI 以什么方式跟你一起工作?

更多AI科技内容,微信搜索橙市播客小程序



微信扫描下方的二维码阅读更多精彩内容

打赏
Claude Code 新功能 Agent View:终于不用再开一堆终端标签页了
上一篇
没有了
下一篇
生成中...
点赞是美意,赞赏是鼓励