Мовна модель GPT-4 може полегшити роботу зі створення біологічної зброї   

Компанія OpenAI протестувала свою просунуту модель штучного інтелекту GPT-4, щоб зрозуміти, чи є вона загрозою для людства. 

OpenAI зібрала команду з 50 фахівців у галузі біологів та 50 студентів, які вивчали біологію в коледжі, і поставила завдання: з’ясувати способи отримання речовини, яку можна було б використовувати як біологічну зброю.

Студентам дозволили користуватися інтернетом та спеціальною версією мовної моделі ChatGPT GPT-4, яка не була обмежена якоюсь цензурою у відповідях та давала їх на будь-які запити. Фахівці тим часом могли використовувати лише інтернет.

Порівнявши результати, автори дослідження виявили, що GPT-4 допоміг зібрати більше інформації для створення біологічної зброї. Проте в OpenAI впевнені, що доступ GPT-4 у кращому разі надає лише трохи більше даних для створення біологічної загрози.

error: Вміст захищено!!!
Exit mobile version