近日,人工智能领域再次掀起波澜。上月刚从OpenAI离职的联合创始人、前首席科学家伊利亚·苏茨沃克(Ilya Sutskever)于6月19日宣布,将创办一家名为安全超级智能公司(Safe Superintelligence,简称SSI)的新企业,旨在追求安全的超级智能。这一消息迅速引发了业界的广泛关注和热烈讨论。

苏茨沃克在社交媒体X上表示:“我要创办一家新公司,我们将直接追求安全的超级智能,只有一个重点、一个目标和一个产品。”这一坚定而明确的表态,展示了苏茨沃克对于人工智能安全性的高度关注和坚定决心。

在OpenAI任职期间,苏茨沃克一直致力于推动人工智能技术的发展,并在该领域取得了显著成就。然而,他对于人工智能安全性的担忧也日渐加深。此次创办SSI公司,正是他对于解决人工智能安全性问题的一次重要尝试。

SSI公司的目标非常明确,即开发安全的超级智能技术。在当前人工智能快速发展的背景下,如何确保人工智能的安全性成为了业界亟待解决的问题。苏茨沃克表示,SSI将致力于通过革命性的工程和科学突破来解决这一问题,确保人工智能在提升能力的同时,始终保持安全性的领先地位。

为了实现这一目标,SSI公司已经启动了世界上第一个专注于安全超级智能的实验室。该实验室将作为SSI公司的核心研发机构,聚集全球顶尖的工程师和研究人员,共同致力于安全超级智能技术的研发和应用。

除了苏茨沃克外,SSI公司还吸引了另外两位重量级联合创始人的加入。前苹果AI高管Daniel Gross和前OpenAI技术团队成员Daniel Levy将与苏茨沃克携手合作,共同推动SSI公司的发展。他们的加入无疑为SSI公司注入了强大的实力和丰富的经验。

值得一提的是,SSI公司的商业模式也备受关注。该公司表示,将专注于安全超级智能技术的研发和应用,不会受到管理开销或产品周期的干扰,也不会受到短期商业压力的影响。这一模式有助于SSI公司保持对于安全超级智能技术的持续投入和深入研究。

总之,SSI公司的成立标志着人工智能领域的一次重要创新。苏茨沃克等创始人的决心和实力,以及他们对于人工智能安全性的高度关注,都为SSI公司的发展奠定了坚实的基础。未来,SSI公司有望在安全超级智能领域取得更多突破和成就。(数据支持:天眼查)

追加内容

本文作者可以追加内容哦 !