OpenAI公司最近宣布将投入大量资源组建新的研发团队,以确保ChatGPT在使用过程中的安全性,并最终实现自我监督。伊利亚·苏斯克维尔和简·莱克在博客上指出,强大的超级智能可能导致人类失去权力甚至面临灭绝的风险。目前尚无法控制或控制潜在的超级人工智能并防止其失控。人工智能一致性的目标是确保人工智能的行为符合设计者的利益和预期目标。

OpenAI承诺在接下来的四年中投入20%的计算能力来应对人工智能的失控。同时,他们成立了一个名为"超级一致性团队"的新团队来管理这项工作。该团队的目标是打造出一支"人类水平"的人工智能研究团队,并利用强大的计算能力来推动研究进展。OpenAI表示,他们将根据人类的反馈对人工智能系统进行训练,并协助人们进行评估,最终进行一致性研究。

然而,人工智能安全倡导者康纳·莱希表示,OpenAI的计划存在根本性的漏洞。他认为,达到"人类水平"的初级人工智能在解决人工智能安全问题之前可能会失去控制,导致严重后果。莱希说:"要创建出人类级别的智能,首先必须解决一致性问题,否则就无法控制。我个人对这个计划的安全性并不乐观。"

此外,根据分析公司Similarweb的数据,自从ChatGPT去年11月全球范围内首次引起轰动以来,它的月访问量和独立访问量在今年6月首次出现下降。据Similarweb报告,今年6月,ChatGPT的全球桌面和移动端通信量较上个月下降了9.7%,独立访问量较上个月下降了5.7%,访问量较上个月下降了8.5%。

尽管ChatGPT在今年6月的访问量出现下滑,但OpenAI仍然决心解决人工智能安全性和一致性的问题。公司将继续致力于改进ChatGPT,以确保其能够更好地满足用户的需求,并提供更安全、可靠的体验。

为了解决人工智能的安全问题,OpenAI的超级一致性团队将紧密合作,进行全面的研究和开发。他们将关注人工智能的行为符合设计者意图的问题,并采取措施确保系统在各种情况下都能做出可靠和合乎伦理的决策。

OpenAI还将加强对人类反馈的重视,以便更好地训练和改进ChatGPT。他们将积极听取用户的意见和建议,并将其纳入到系统的改进过程中。通过与用户紧密互动,OpenAI希望能够及时发现和解决潜在的问题,提高系统的整体质量和可靠性。

尽管康纳·莱希对OpenAI的计划表示担忧,但OpenAI将继续努力确保人工智能的安全性。他们明白人工智能的发展必须与安全措施同步进行,以确保其不会对人类造成潜在的威胁。

随着时间的推移,OpenAI相信他们的努力将会取得成果。他们将继续投入资源和技术,以确保ChatGPT和其他人工智能系统能够真正符合人类的利益和预期目标。通过持续的研究、改进和用户反馈,OpenAI致力于打造出更加安全、可靠的人工智能技术,为用户提供更好的体验和价值。

追加内容

本文作者可以追加内容哦 !