ПЗ

Нове ПЗ може перевірити, скільки інформації насправді знає ШІ

0

Зважаючи на зростаючий інтерес до систем генеративного штучного інтелекту (ШІ) у всьому світі, дослідники з Університету Суррея створили програмне забезпечення, яке здатне перевірити, скільки інформації система даних ШІ зібрала з цифрової бази даних організації.

Програмне забезпечення для перевірки Surrey можна використовувати як частину протоколу онлайн-безпеки компанії, допомагаючи організації зрозуміти, чи штучний інтелект дізнався занадто багато або навіть отримав доступ до конфіденційних даних.

Програмне забезпечення також здатне визначити, чи ШІ виявив і чи здатний використовувати недоліки в програмному коді. Наприклад, у контексті онлайн-ігор він може визначити, чи навчився ШІ завжди вигравати в онлайн-покері, використовуючи помилку кодування.

Доктор Фортунат Раджаона є науковим співробітником з офіційної перевірки конфіденційності в Університеті Суррея та провідним автором статті. Він сказав: «У багатьох додатках системи штучного інтелекту взаємодіють одна з одною або з людьми, як-от безпілотні автомобілі на шосе чи лікарняні роботи. Розробка того, що знає інтелектуальна система даних штучного інтелекту, є постійною проблемою, на вирішення якої нам знадобилися роки. знайти робоче рішення для.

«Наше програмне забезпечення для перевірки може зробити висновок, скільки ШІ може навчитися з їх взаємодії, чи мають вони достатньо знань, щоб забезпечити успішну співпрацю, і чи мають вони забагато знань, які порушують конфіденційність. Завдяки здатності перевіряти те, що ШІ навчився, ми можемо дати організаціям впевненість у безпечному застосуванні потужності штучного інтелекту в безпечних налаштуваннях».

Дослідження про програмне забезпечення Surrey виграло нагороду за найкращу статтю на 25-му Міжнародному симпозіумі з формальних методів.

Професор Адріан Хілтон, директор Інституту людського штучного інтелекту Університету Суррея, сказав: «Протягом останніх кількох місяців відбувся величезний сплеск громадського та промислового інтересу до генеративних моделей штучного інтелекту, що підживлюється прогресом у великих мовних моделях, таких як ChatGPT. Створення інструментів, які можуть перевіряти продуктивність генеративного штучного інтелекту, має важливе значення для їх безпечного та відповідального розгортання. Це дослідження є важливим кроком до збереження конфіденційності та цілісності наборів даних, які використовуються під час навчання».

Читайте також -  Apple працює над функцією оповіщення на екрані для Siri

Comments

Comments are closed.

error: Вміст захищено!!!