Студентам Массачусетского технологического института стало интересно можно ли обмануть искуственный интеллект и если да, то как это сделать, поэтому они порвели эксперимент с этой целью. Как оказалось можно, им удалось убедить ИИ, что черепаха — это оружие.
Была предпринята не одна попытка обмануть ИИ, но затем студенты определили алгоритм восприятия нейросети Google Inception v3 и смогли выбрать верный способ.
Исследователи отталкивались от того, что машины воспринимают звуки, изображения и в целом все совершенно не так, как человек. Проблема в том, что алгоритм восприятия до конца не исследован, поэтому студенты самостоятельно искали способы, как обмануть ИИ.
Был выбран способ «адверcальних примеров» — специфическая технология, при которой два объекта сопоставляются. Особенность в том, что поверх одного изображения находится невидимый слой второго. И на это попался Google Inception v3, которая создана, чтобы распознавать изображения.
По словам разработчиков, созданный алгоритм можно применять не только к обычным плоским изображениям, но и к 3D-моделям.
Стоит отметить, что технология «адверcальних примеров» несовершенна. Сейчас она чувствительна к различным факторам воздействия, например масштабированию, кадрированию, поворот на определенный угол. Изменения этих факторов смогут существенно ослабить «обманчивый эффект». А значит, нейросеть сможет без проблем определить изображения.