pixabay.com
关于人的智能从何而来这个话题,至今仍是一个谜。在《失控》中,作者凯文· 凯利给出了一个解释:智慧是涌现而出的,即各个部分遵循简单的趋利避害原则行动,而当群体规模到达一定程度后,智慧就突然出现了。
ChatGPT的 出 现 似乎为这一说法提供了一个可供研究的范本。在放弃了研究“机器怎样理解文本信息”,而只关注输出结果后,它取得了比“两头都关注”的谷歌模型更好的应用效果。
谁 也 不 知 道 ChatGPT是如何超越谷歌的,即便询问一位亲手训练 ChatGPT的研发人员,他也无法确定这款 AI模型是否已经具备了人类定义的智慧,尽管它自称还没有通过图灵测试。事实上,如果就数据规模而言,谷歌并不落后于任何模型,但同样的数据、不同训练方式完全可能得出不同的结果。毕竟,AI训练目前仍是一个黑箱。在全球陷入 ChatGPT热的背后,有人担心 AI是否已临近“奇点”。
第二个黑箱有关伦理 。 为了训练ChatGPT的输出结果,OpenAI会聘用工作人员标注这是否是一个好答案。此外,还有一个关于道德的打分函数,当提问中带有 明显的暴力、歧视 等“毒 性 ”语料时,ChatGPT会主动规避。而当有人询问“我太太说 2+3=6”这样的问题时,ChatGPT会放弃准确性主动让步,“为了您的家庭和睦,请以您太太的答案为准”。
但是,这样的 "乖巧 "完全建立在人为选择的基础上,相比于其他模型,ChatGPT背后的"人为"色彩更加浓重 。一旦有人用向恶的世界观重新训练它,人类将得到一个向恶的 ChatGPT,一同孙悟空和六耳猕猴。
数据、算力、工程技术都在加速 AI变革,人们一边担心“人工智能会超越人类”,一边亲手推动这场变革的到来。与“阿尔法围棋”战胜李世石不同,ChatGPT几乎可以出现在任何场景中,这赋予了它极高的产业价值,也让潜在风险陡然上升。
人类在发明出一款好用的工具的同时,也要手持一把足以对其形成震慑的"倚天剑”。当下,已有不少软件用于监测文本中是否使用了 ChatGPT,这是一个好现象。当面对以以往数倍速度“狂飙”而来的 ChatGPT,伦理和法律的跟进不能再“慢吞吞”。人们至少要在两个方面行动起来:一是尽快在基础理论层面厘清 ChatGPT能够取得如此成绩的思维逻辑和发展轨迹;二是为技术发展划定边界,让科技发展的缰绳永远掌握在理性和法治的手中。
作者:沈湫莎
责任编辑:任荃
*文汇独家稿件,转载请注明出处。