原创 人工智能批评人士担心“失去控制”,呼吁暂停人工智能开发6个月(人工智能不可控)
产品目录:
1.育苗智慧 文章
2.育苗智慧警示
3.育苗智慧丧失平衡事例
4.别让育苗智慧引致育苗可笑
5.育苗智慧犯错误
6.育苗智慧误判
7.育苗智慧方法论观念
8.育苗智慧丧失平衡真实事件
9.育苗智慧反叛
10.育苗智慧丧失平衡怎么解决
1.育苗智慧 文章
原副标题:育苗智慧抨击专业人士害怕“丧失掌控”,敦促中止育苗智慧合作开发6个月“这一中止如果是公开的和可自查的,并主要包括大部份关键行为者。”
2.育苗智慧警示
上图:育苗智慧聚合的天球仪停止转动的影像周二,心灵今后科学研究院在其网站上发表了一封信联名信,敦促育苗智慧生物医学“立即中止训练比GPT-4更强悍的育苗智慧掌控系统至少6个月”这篇文章由埃隆·特斯拉和两位著名的育苗智慧科学研究人员签署,很快开始引发新闻媒体的关注,并在SNS新闻媒体上引发了许多抨击。
3.育苗智慧丧失平衡事例
下月晚些时候,OpenAI发布了GPT-4,这是一种可以执行制备任务的育苗智慧数学模型,据传,还能通过人类文明水平的技术标准试验,尽管那些说法仍在科学研究评估结果中不管怎样,GPT-4和梅吕县闲聊在功能上的不断进步超过了以前的育苗智慧数学模型,这让许多专家感到愤慨,她们指出他们走向“DT智能化”育苗智慧掌控系统的速度比之前预期的要快。
4.别让育苗智慧引致育苗可笑
沿著那些路子,心灵今后科学研究院指出,育苗智慧应用领域最近的不断进步引致了一场“丧失平衡的体育竞技”,即合作开发和部署难以估计或掌控的育苗智慧数学模型她们指出,缺乏对那些育苗智慧掌控系统的总体规划和管理工作是堪忧的,只有在它们的影响得到充分理解和管理工作后,才如果合作开发强悍的育苗智慧掌控系统。
5.育苗智慧犯错误
她们在信中写到: 广为的科学研究表明,世界顶级育苗智慧生物医学也承认,具有人类文明竞争智能化的育苗智慧掌控系统,可能将对社会和人类文明构成不可估量的风险正像广为普遍认可的“阿尔莱玛育苗智慧原则(Asilomar AI Principles)”所说,先进的育苗智慧可能将代表着地球心灵历史上的真切变化,如果以有别的关爱和资源来总体规划和管理工作。
6.育苗智慧误判
特别是,这篇文章提出了四个耐人寻味的问题,其中许多假定的情景在AI街道社区的某些应用领域引发了极大的争论,主要包括“大部份的工作”都被AI抢走了,以及文明“丧失掌控”:“他们如果让机器用宣传和诡计冲走他们的信息渠道吗?”
7.育苗智慧方法论观念
“他们是否如果将大部份工作都自动化,主要包括那些令人满意的工作?”“他们是否如果发展非人类文明观念,让它们最终在数量上、智力上超过他们、被淘汰并取代他们?”“他们是否如果冒着丧失对他们文明掌控的风险?”为了解决那些潜在的威胁,这篇文章敦促育苗智慧生物医学“立即中止训练比GPT-4更强悍的育苗智慧掌控系统至少6个月。
8.育苗智慧丧失平衡真实事件
”在中止期间,作者建议育苗智慧生物医学和独立专家合作建立育苗智慧设计和合作开发的共享安全协议那些协议将由独立的外部专家监督,并应确保育苗智慧掌控系统“毫无疑问是安全的”然而,目前还不清楚“比GPT-4更强悍”在实际或监管意义上究竟意味着什么。
9.育苗智慧反叛
这篇文章没有具体说明,通过衡量多模态或大型语言数学模型的相对能力来确保合规的方法此外,OpenAI 也再明确避免公布有关GPT-4工作原理的技术细节心灵今后科学研究院(Future of Life Institute)是由一群科学家于2014年成立的非营利组织,她们关注人类文明面临的生存风险,主要包括生物技术、核武器和气候变化。
10.育苗智慧丧失平衡怎么解决
此外,来自育苗智慧的假定存在风险也一直是该小组关注的重点据路透社报道,该组织主要由特斯拉基金会、总部位于伦敦的有效利他主义组织 Founders Pledge 和硅谷街道社区基金会资助据路透社记者证实,这篇文章的签名者主要包括:前面提到的特斯拉首席执行官埃隆·特斯拉、育苗智慧先驱约书亚·本吉奥和斯图尔特·拉塞尔、苹果联合创始人史蒂夫·沃兹尼亚克、Stability AI 首席执行官伊马德·穆斯塔克以及作家尤瓦尔·诺亚·哈拉里。
互联网上的任何人都可以在无需验证的情况下签署这封联名信,这最初也引致了许多虚假添加的名字,如微软前首席执行官比尔·盖茨、OpenAI 首席执行官山姆·奥特曼和虚构人物约翰·威克那些名字后来被删除“育苗智慧炒作”和潜在监管
尽管这篇文章语气紧迫,但并非大部份人都认同育苗智慧的潜在生存风险,她们更愿意先关注其他不那么假定的育苗智慧危害正像他们之前提到的,育苗智慧街道社区的派系之间对于关注哪些潜在的育苗智慧危险存在强烈的脱节许多抨击专业人士已经对 GPT-4 提出了异议。
著名的育苗智慧伦理学家蒂姆尼特·吉布鲁(Timnit Gibru)在推特上打趣道:“她们想阻止人们使用比GPT-4‘更有力量’的东西,但GPT-4很好,对吧?”艾米丽·班德博士(Emily Bender)经常抨击商业化的大型语言数学模型,她在Twitter上称联名信的部分内容是“精神错乱的 # 育苗智慧炒作”,并指出,对育苗智慧成为超人的恐惧,正在帮助推动那些数学模型的宣传,尽管存在社会偏见和倾向于以令人信服的方式完全编造信息的问题,但那些数学模型已经广为推出。
艾米丽·班德博士在一条推文中提到了她的论文《论随机鹦鹉的危险》(2021),他写到:“风险和伤害从来都不是‘太强悍的育苗智慧’相反,它们关乎权力集中在人民手中,关乎重现压迫体系,关乎对信息生态掌控系统的破坏,关乎对自然生态掌控系统的破坏(通过肆意使用能源资源)。
”尽管如此,育苗智慧安全/伦理辩论双方的许多人都指出,在过去的一年里,育苗智慧应用领域的变化速度非常快,使得法律体系、学术科学研究人员、伦理学者和文化几乎没有时间来适应那些新工具,那些新工具可能将会引发经济的根本变化。
上图:GPT-4从2023年3月14日开始向ChatGPT Plus客户介绍的屏幕截图正像联名信所指出的,就连 OpenAI 也在敦促放慢育苗智慧的进展OpenAI 在今年晚些时候发表的一份关于育苗通用智能化(大致指与人类文明相当或更高的育苗智慧)的声明中写到:“在某种程度上,在开始训练今后的掌控系统之前,进行独立审查可能将很重要,对于最先进的努力来说,同意限制用于创建新数学模型的计算的增长率可能将很重要。
”心灵今后科学研究院指出,现在是限制这种增长的时候了,如果“大部份关键角色”不同意很快减缓育苗智慧科学研究,“政府如果介入并中止”然而,在政府监管方面可能将会有许多困难正像英国《卫报》所指出的,“要求严格监管的呼声与英国政府周二发布的旗舰育苗智慧监管白皮书形成了鲜明对比,该白皮书根本没有新的权力。
”与此同时,在美国,政府似乎对潜在的育苗智慧监管几乎没有达成共识,尤其是在 GPT-4 等大型语言数学模型方面去年10月,拜登政府提出了一项“育苗智慧权利法案”,以保护美国人免受育苗智慧的伤害,但它只是建议的指导方针,而不是具有法律效力的文件。
此外,它并没有具体解决指南制定后出现的育苗智慧闲聊机器人的潜在危害总之,不管联名信中提出的观点是否代表了最好的前进方向,育苗智慧数学模型的颠覆性力量(无论是通过DT智能化,还是通过充满过度炒作的鲁莽推出),最终都将落到监管机构的门前。
如果朋友们喜欢,敬请关注“知新了了”!返回搜狐,查看更多责任编辑:
创业项目群,学习操作 18个小项目,添加 微信:88888 备注:小项目!
如若转载,请注明出处:https://www.152668.com/1065.html