Skip to main content

Инструменты искусственного интеллекта, такие как ChatGPT от OpenAI, создадут больше проблем, ошибок и векторов атак, если их использовать для написания смарт-контрактов и создания криптовалютных проектов, говорит руководитель компании CertiK, занимающейся безопасностью блокчейнов.

Кан Ли, директор по безопасности CertiK, объяснил на Корейской неделе блокчейна 5 сентября, что ChatGPT не может обнаруживать логические ошибки кода так же, как это могут делать опытные разработчики.

Ли предположил, что ChatGPT может создавать больше ошибок, чем выявлять их, что может иметь катастрофические последствия для начинающих программистов или любителей, желающих создавать свои собственные проекты.

«ChatGPT позволит группе людей, которые никогда не проходили такого обучения, начать работу прямо сейчас, и я начинаю беспокоиться о скрытых там проблемах морфологического дизайна».

«Вы что-то пишете, и ChatGPT помогает вам это построить, но из-за всех этих конструктивных недостатков оно может с треском провалиться, когда начнут приходить злоумышленники», — добавил он.

Вместо этого Ли считает, что ChatGPT следует использовать в качестве помощника инженера, поскольку он лучше объясняет, что на самом деле означает строка кода.

«Я думаю, что ChatGPT — отличный полезный инструмент для людей, занимающихся анализом кода и обратным проектированием. Это определенно хороший помощник, который значительно повысит нашу эффективность».

Толпа Корейской недели блокчейна собирается на основной доклад. Источник: Эндрю Фентон/.

Он подчеркнул, что на него не следует полагаться при написании кода, особенно неопытным программистам, желающим создать что-то монетизируемое.

Ли сказал, что поддержит свои утверждения, по крайней мере, в течение следующих двух-трех лет, поскольку он признает, что быстрое развитие искусственного интеллекта может значительно улучшить возможности ChatGPT.

Технологии искусственного интеллекта совершенствуются в использовании средств социальной инженерии

Между тем, Ричард Ма, соучредитель и генеральный директор компании по обеспечению безопасности Web3 Quantstamp, сообщил в KBW 4 сентября, что инструменты искусственного интеллекта становятся все более успешными в атаках социальной инженерии, многие из которых идентичны попыткам людей.

Ма сказал, что клиенты Quantstamp сообщают о тревожном количестве все более изощренных попыток социальной инженерии.

«[With] последние, похоже, люди используют машинное обучение для написания электронных писем и сообщений. Это гораздо более убедительно, чем попытки социальной инженерии, предпринятые пару лет назад».

В то время как обычный пользователь Интернета годами страдает от спама, генерируемого ИИ, Ма считает, что мы приближаемся к моменту, когда мы не будем знать, являются ли вредоносные сообщения ИИ или человеком.

Связанный: Взлом Twitter: «Атака с помощью социальной инженерии» на панели администратора сотрудников

«Станет сложнее отличить людей, которые пишут вам сообщения. [or] довольно убедительно ИИ отправляет вам сообщения и пишет личное сообщение», — сказал он.

Эксперты криптоиндустрии уже становятся мишенью, в то время как других выдают себя за ботов с искусственным интеллектом. Ма считает, что будет только хуже.

«В криптографии существует множество баз данных со всей контактной информацией ключевых людей каждого проекта. Значит, хакеры имеют к этому доступ [and] у них есть ИИ, который может пытаться отправлять людям разные сообщения».

«Очень сложно научить всю вашу компанию не реагировать на такие вещи», — добавил Ма.

Ма сказал, что на рынок выходит более качественное антифишинговое программное обеспечение, которое может помочь компаниям защититься от потенциальных атак.

Журнал: AI Eye: Apple разрабатывает карманный искусственный интеллект, фейковую музыкальную сделку, гипнотизирует GPT-4

Источник: Сointеlеgrаph

Оставить комментарий