Компанія OpenAI протестувала свою просунуту модель штучного інтелекту GPT-4, щоб зрозуміти, чи є вона загрозою для людства.
OpenAI зібрала команду з 50 фахівців у галузі біологів та 50 студентів, які вивчали біологію в коледжі, і поставила завдання: з’ясувати способи отримання речовини, яку можна було б використовувати як біологічну зброю.
Студентам дозволили користуватися інтернетом та спеціальною версією мовної моделі ChatGPT GPT-4, яка не була обмежена якоюсь цензурою у відповідях та давала їх на будь-які запити. Фахівці тим часом могли використовувати лише інтернет.
Порівнявши результати, автори дослідження виявили, що GPT-4 допоміг зібрати більше інформації для створення біологічної зброї. Проте в OpenAI впевнені, що доступ GPT-4 у кращому разі надає лише трохи більше даних для створення біологічної загрози.