图片来自《终结者》
“电影《 终结者》中的情境会不会发生?”
(资料图)
英伟达市值一度超过万亿美元,AI风头正盛的背后,公众的担忧也越来越多,科技圈再次流出了一封重磅公开信。
当地时间5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,称 AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。
整个声明只有一句话,22个单词:
“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”
拜登政府近几个月表示,人工智能对公共安全、隐私和民主构成威胁,但政府对其监管的权力有限。
OpenAI创始人领衔,超350位AI大佬签名
目前已有超350位AI大佬签署了上述联名公开信,包括OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode三大AI公司掌门人等。
图灵奖获得者、被誉为人工智能“教父”的Geoffrey Hinton和Yoshua Bengio也赫然在列。
名单里也不乏中国学者的身影,包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园。
其他签署人还包括微软首席技术官Kevin Scott,前联合国裁军事务高级代表Angela Kane,Skype联合创始人Jaan Tallinn,Quora首席执行官Adam D"Angelo。
他们表示,虽然公众一直在承认人工智能的风险,但还有更多挑战需要讨论。他们还想“为越来越多的专家和公众人物创造共同知识,他们也认真对待先进人工智能领域存在的一些最严重的风险”。
值得一提的是,目前, 微软创始人比尔·盖茨没有签署这一联名信。
“危险!立刻停下所有大型AI研究”
自去年ChatGPT发布以来,科技行业掀起了一场竞争激烈的AI竞赛,同时也引发公众对于这项未知技术的恐惧。
今年3月份,Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等科技大佬发表联名公开信, 呼吁暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。
公开信强调了AI在迅猛发展,但却没有对其进行相应的规划和管理:
“最近几个月人工智能实验室掀起AI狂潮,它们疯狂地开展AI竞赛,开发和部署越来越强大的AI。
不幸的是,目前为止,没有任何人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。”
信中提到,如今人工智能在一般任务上变得与人类一样有竞争力,我们必须问自己:
“是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?
是否应该冒着失去对人类文明控制的风险?”
答案是否定的,公开信指出, 只有当我们确信强大的AI系统的效果是积极的,其风险是可控的,才应该开发。
因此,公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。
“我们应该从危险的竞赛中退后一步,……让如今最强大的模型 更加准确、安全。
让我们享受一个漫长的人工智能夏天,而不是毫无准备地匆忙进入秋天。”
AI教父:痛悔毕生工作,无法阻止人类AI大战
5月初,深度学习泰斗、人工智能教父Geoffrey Hinton突然宣布离职谷歌,终于可以畅所欲言地谈论AI的风险了。
正是对人工智能风险深深地担忧,让这位深度学习巨佬直言: “我对自己的毕生工作,感到非常后悔。”
在媒体报道中,Hinton直接警示世人: 注意,前方有危险,前方有危险,前方有危险!
在一次采访中,Hinton表示“我们几乎已经让学会计算机如何自我改进了, 这很危险,我们必须认真考虑,如何控制它。”
他曾指出, 谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!
他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
图片来自《西部世界》
上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。 当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
从人工智能的开创者到末日预言者,Hinton的转变,也许标志着 科技行业正处于几十年来最重要的一个拐点。
本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。
你担心AI失控吗?
关键词: