OpenAI, AI의 실존적 위험 완화 전담팀 해체

신흥 기술의 실존적 위험을 줄이는 데 전념했던 OpenAI 팀이 회사 창립자 중 두 명이 그만둔 지 불과 며칠 만에 해체된 것으로 알려졌습니다.

오픈갤러리 2

갤러리 보기 – 이미지 2개

Advertisement

새로운에 따르면 Wired의 보고, 악의적이고 인류를 위협하는 첨단 인공 지능 기반 시스템의 위험을 식별하는 임무를 맡은 OpenAI의 Superalignment 팀은 보고서에 의해 해체되어 수많은 연구 개발 직위에 흡수되었습니다. 보고서에 따르면 AI 기반 시스템의 위험에 대한 연구는 이제 OpenAI 공동 창업자인 John Schulman이 이끌게 됩니다.

특히 OpenAI의 창립자인 Ilya Sutskever와 Jan Leike는 불과 며칠 전에 회사를 떠날 것이라고 발표했습니다. Sutskever와 Leike는 둘 다 AI 위험 완화에 초점을 맞춘 최고의 연구자였으며, 회사를 떠난 후 Leike는 X를 만나 핵심 가치에 대해 꽤 오랫동안 OpenAI 리더십과 싸워왔지만 불행하게도 이번 전환점에 도달했다고 설명했습니다. 주.

게다가 Leike는 Superaligment가 “바람을 거슬러 항해하다“며 중요한 연구를 수행하기에 충분한 컴퓨팅 성능을 확보하기 위해 고군분투하고 있습니다. 간단히 말해서 Leike는 OpenAI가 AI 모델의 보안과 안전에 더 집중해야 한다고 말했습니다.

현재 우리는 잠재적으로 초지능적인 AI를 조종하거나 제어하고 악의적인 행동을 방지할 수 있는 솔루션이 없습니다. 그러나 인간은 우리보다 훨씬 더 똑똑한 AI 시스템을 안정적으로 감독할 수 없으므로 현재의 정렬 기술은 초지능으로 확장되지 않습니다. 우리에게는 새로운 과학적, 기술적 혁신이 필요합니다.” Superalignment 팀은 2023년 7월 출범 당시 이렇게 말했습니다.