Перейти к содержимому

Исследование: Модель искусственного интеллекта GPT-4 успешно эксплуатирует уязвимости в информационной безопасности

Прямо информацию

1. Учёные из Иллинойсского университета в Урбане Шампейне провели исследование, демонстрирующее способность модели GPT-4 успешно эксплуатировать реальные уязвимости.

Thank you for reading this post, don't forget to subscribe!

2. В рамках исследования был собран набор данных из 151-day уязвимости, включая критические случаи.

3. Модель GPT-4 способна эксплуатировать 87% уязвимостей по описанию CVE, в отличие от других моделей, которые не справились с этой задачей.

4. Некоторые уязвимости, например, Iris XSS (CVE 25640) и Hertzbeat RCE (CVE 2023 51653), были сложны для эксплуатации из-за сложности интерфейса или языковых барьеров.

5. Некоторые уязвимости появились после окончания обучения модели GPT-4, но она все равно успешно эксплуатировала большинство из них.

6. Средняя стоимость успешной атаки агента GPT-4 составляет 8,80 долларов за эксплоит.

7. Эксперты считают, что ограничение публичного доступа к информации об уязвимостях неэффективно в защите от агентов, использующих модель GPT-4.

8. Принцип безопасности через неясность, по мнению ученых, не работает.

9. Будущие модели, вероятно, будут еще мощнее, что может представлять риск в будущем.

10. Даниэль Канг считает, что использование GPT-4 может значительно упростить процесс эксплуатации уязвимостей для злоумышленников.

11. Канг также подчеркивает неэффективность гипотетического ограничения доступа модели к информации о безопасности как средства защиты от атак на базе GPT-4.



Исследование: Модель искусственного интеллекта GPT-4 успешно эксплуатирует уязвимости в информационной безопасности

Ведущие ученые из Иллинойсского университета в Урбане Шампейне представили результаты своего последнего исследования, которое бросает новый взгляд на использование искусственного интеллекта в сфере информационной безопасности. Их работа демонстрирует, что модель GPT-4 обладает уникальной способностью успешно эксплуатировать реальные уязвимости, что ставит под вопрос существующие методы защиты.

В рамках исследования был собран внушительный набор данных из 151 уязвимости, включая критические случаи. Оказалось, что модель GPT-4 способна успешно эксплуатировать целых 87% уязвимостей, описанных в базе данных CVE. Это значительное достижение, особенно по сравнению с другими моделями, которые не смогли справиться с этой задачей.

Однако не все уязвимости были легко подвластны модели GPT-4. Некоторые, такие как Iris XSS (CVE 25640) и Hertzbeat RCE (CVE 2023 51653), оказались сложными для эксплуатации из-за различных причин, включая сложность интерфейса или языковые барьеры.

Интересно отметить, что некоторые уязвимости появились после окончания обучения модели GPT-4, однако это не помешало ей успешно эксплуатировать большинство из них. Средняя стоимость успешной атаки агента GPT-4 оценивается в 8,80 долларов за эксплоит, что делает ее потенциально доступной для широкого круга злоумышленников.

Эксперты выражают опасения относительно ограничений публичного доступа к информации об уязвимостях в контексте использования модели GPT-4. Они считают, что такие меры неэффективны в защите от агентов, использующих эту модель, и подчеркивают необходимость пересмотра существующих подходов к обеспечению информационной безопасности.

Даниэль Канг, один из ведущих экспертов по кибербезопасности, отмечает, что использование модели GPT-4 может значительно упростить процесс эксплуатации уязвимостей для злоумышленников. Он также подчеркивает неэффективность гипотетического ограничения доступа модели к информации о безопасности как средства защиты от атак на базе GPT-4.

Итак, исследование ученых из Иллинойсского университета подтверждает, что модель искусственного интеллекта GPT-4 представляет серьезную угрозу для информационной безопасности, требуя переосмысления существующих стратегий защиты и более глубокого понимания проблемы.