Зважаючи на зростаючий інтерес до систем генеративного штучного інтелекту (ШІ) у всьому світі, дослідники з Університету Суррея створили програмне забезпечення, яке здатне перевірити, скільки інформації система даних ШІ зібрала з цифрової бази даних організації.
Програмне забезпечення для перевірки Surrey можна використовувати як частину протоколу онлайн-безпеки компанії, допомагаючи організації зрозуміти, чи штучний інтелект дізнався занадто багато або навіть отримав доступ до конфіденційних даних.
Програмне забезпечення також здатне визначити, чи ШІ виявив і чи здатний використовувати недоліки в програмному коді. Наприклад, у контексті онлайн-ігор він може визначити, чи навчився ШІ завжди вигравати в онлайн-покері, використовуючи помилку кодування.
Доктор Фортунат Раджаона є науковим співробітником з офіційної перевірки конфіденційності в Університеті Суррея та провідним автором статті. Він сказав: «У багатьох додатках системи штучного інтелекту взаємодіють одна з одною або з людьми, як-от безпілотні автомобілі на шосе чи лікарняні роботи. Розробка того, що знає інтелектуальна система даних штучного інтелекту, є постійною проблемою, на вирішення якої нам знадобилися роки. знайти робоче рішення для.
«Наше програмне забезпечення для перевірки може зробити висновок, скільки ШІ може навчитися з їх взаємодії, чи мають вони достатньо знань, щоб забезпечити успішну співпрацю, і чи мають вони забагато знань, які порушують конфіденційність. Завдяки здатності перевіряти те, що ШІ навчився, ми можемо дати організаціям впевненість у безпечному застосуванні потужності штучного інтелекту в безпечних налаштуваннях».
Дослідження про програмне забезпечення Surrey виграло нагороду за найкращу статтю на 25-му Міжнародному симпозіумі з формальних методів.
Професор Адріан Хілтон, директор Інституту людського штучного інтелекту Університету Суррея, сказав: «Протягом останніх кількох місяців відбувся величезний сплеск громадського та промислового інтересу до генеративних моделей штучного інтелекту, що підживлюється прогресом у великих мовних моделях, таких як ChatGPT. Створення інструментів, які можуть перевіряти продуктивність генеративного штучного інтелекту, має важливе значення для їх безпечного та відповідального розгортання. Це дослідження є важливим кроком до збереження конфіденційності та цілісності наборів даних, які використовуються під час навчання».
Comments