自ChatGPT正式发布以来,AI大模型变成了全球科技界追逐的对象,Google、Meta争先布局,京东的ChatJD、百度的文心一言相继发布,一时间“元宇宙”“Web3.0”成了过去式,资本与市场都在等待AI大模型更多的可能性。
但3月29日,美国生命未来研究所发布的一封公开信,似乎有意要给这阵“AI热”降降温。该信呼吁全球所有机构暂停训练比GPT-4更强大的AI至少六个月,如果不能实施政府应该介入并发布禁止令。
(资料图片)
马斯克等上千人联名呼吁
官网显示,生命未来研究所成立于2015年,是一家非营利组织,致力于降低技术给人类带来的风险,尤其是人工智能领域。
截至发稿,该信联名人数达1123人,其中有不少商界、政界、学界的知名人士,包括特斯拉CEO马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克、图灵奖得主约书亚·本吉奥、《人类简史》作者尤瓦尔·赫拉利。
参与签名的部分人士
上述公开信指出,对地球的生命而言,先进的人工智能可能意味着一场深刻的变革,应该投入可观的资源和关注来进行规划和管理,然而近几个月人工智能实验室正在开发越来越强大的数字思维,竞争逐渐失序,但管理和规划仍然缺位,包括创造者在内,没有人可以理解、预测或控制它们。
此前OpenAI发布的声明也指出,“在未来某个阶段,有必要在训练新系统之前进行独立审查,同时对新模型计算能力的增长速度也加以限制。”
除了暂停训练之外,该公开信也呼吁,AI实验室和独立学者应针对高级AI的设计和开发共同制定实施一套共享安全协议,确保AI的安全性。
与此同时,AI开发人员必须与决策者合作,大力推进强有力的AI治理系统的发展,包括:针对AI的新型监管机构;对高级AI系统的监督追踪和大型算力池;帮助区分真实数据与AI生成的数据、并且追踪模型泄漏的溯源和水印系统等。
不过信的末尾仍然提及,人类可以和AI共创繁荣未来,只不过要做好准备:“让我们享受AI的‘长夏’,而不是毫无准备地进入‘秋天’。”
面对灵魂拷问,ChatGPT怎么看
对于公开信的建议,提问ChatGPT(GPT-3.5)是否同意,ChatGPT在生成的回答中并没有明确提及同意与否,而是照常表明“作为一个AI语言模型,我不具备表达个人观点或信仰的能力”。但它表示对于AI的研究与开发人员而言,需要优先考虑AI系统带来的责任和道德问题,包括此类系统的潜在风险和好处。
ChatGPT认为,“暂停开发比GPT-4更强大的人工智能系统可能是一个合理的举措,以便思考和讨论与继续开发此类系统相关的潜在风险和伦理考虑。这可以为研究人员提供一个机会,考虑如何减轻潜在风险,并确保此类系统的开发和部署符合人类价值观和优先事项。”
ChatGPT建议,站在AI的研究与开发人员的角度,暂停研发和训练是合理的。
此外,公开信中提及,如今的AI系统在常规工作中具备了与人类竞争的能力,并对可能出现的风险进行提问。尝试将部分问题转述给ChatGPT,得到如下回答以及建议:
:是否应该让机器用宣传和谎言充斥信息渠道?
ChatGPT:不,让机器用宣传和虚假充斥信息渠道对人类来说是不可取的。虽然机器和人工智能可以成为信息处理和传播的强大工具,但它们的好坏取决于它们所用的数据和算法。如果他们被用来传播虚假信息或宣传,它会对个人、社会和公共机构产生严重的负面后果。
重要的是优先考虑负责任和合乎道德的技术使用,并确保人类保持对信息渠道的控制,以防止虚假或误导性信息的传播。这可以通过事实核查、算法和数据来源的透明度以及促进个人的媒体素养和批判性思维技能等措施来实现。最终,确保信息渠道的准确性和完整性的责任在于人类,而不是机器。
:是否应该把所有的工作都自动化,包括那些有成就感的工作?
ChatGPT:虽然自动化可以带来许多好处,如提高生产力和效率,但不建议将所有工作自动化,包括令人满意的工作。重要的是要在自动化的好处和工人的需求之间取得平衡,并确保工人不会在技术进步的过程中落在后面。
一个更平衡的方法不是以完全自动化为目标,而是使用自动化来增强人的能力并创造新的就业机会。这可以包括投资教育和培训计划,让工人具备适应不断变化的就业市场所需的技能,促进创业和创新,培养终身学习和持续职业发展的文化。
从现有回答来看,对于AI技术,ChatGPT的回答仍以兼顾风险与监管为主,至于在迭代之后,“态度”是否会改变,仍是难以预测的未知数。
标签: