AI сваля бариерите пред биотерора: „Начинаещи“ вече могат да планират патогени и химически атаки
Бивш инспектор на ООН демонстрира във Вашингтон колко бързо чатбот може да генерира рецепти и сценарии за разпространение. OpenAI признава риск, но експерти предупреждават: фокусът само върху „следващата пандемия“ изпуска по-вероятните атаки.
Експерти по сигурността предупреждават, че изкуственият интелект променя правилата на играта при биологичните и химическите заплахи. Това, което допреди няколко години изискваше лаборатории, финансиране и екипи от специалисти, вече може да бъде подпомогнато от модели, които дават бърз достъп до знания и инструкции.
Примерът, който разтревожи част от американските институции, идва от 2023 г. Тогава бившият инспектор по оръжията на ООН Роко Казагранде влиза в сградата „Айзенхауер“ във Вашингтон, до Западното крило на Белия дом. Той носи малък запечатан контейнер с епруветки. Съдържанието им, при определени условия, може да се използва за разработване на опасен патоген.
Целта му не е атака, а демонстрация. Казагранде иска да покаже на служители по националната сигурност колко бързо новите технологии понижават бариерите пред биологичната война. По думите му информацията как подобен агент може да бъде създаден е била генерирана от чатбот с изкуствен интелект. Системата е предложила комбинации от съставки. Дала е и идеи за атмосферни условия, които биха увеличили разпространението.
Какво се променя с новите ИИ модели.
Доскоро разработването на опасни патогени се смяташе за „елитна“ дейност. Нужни бяха специализирани лаборатории и опитни екипи. С появата на мощни модели част от експертизата може да бъде компенсирана. Причината е проста. ИИ може да обобщава, да предлага варианти и да ускорява планирането.
Затова темата вече влиза в стратегиите за отбрана. В САЩ нов план за действие за ИИ предвижда мерки за ограничаване на такива рискове. Великобритания също поставя химическата и биологичната защита сред приоритетите в стратегическия си преглед на отбраната за 2025 г.
Технологичните компании също реагират. Част от големите разработчици публично поеха ангажименти за намаляване на рисковете, свързани с химически и биологични злоупотреби. Обещанията бяха обсъждани на срещата за безопасност на ИИ в Сеул, където водещи лаборатории се договориха да развиват механизми срещу злоупотреби.
OpenAI: рискът е „много реален“.
От OpenAI публично признават, че техни модели могат да подпомогнат разработване на биологични оръжия. Компанията класифицира ChatGPT Agent като продукт с висока степен на риск. Това е инструмент, който може да предприема действия от името на потребителя.
Според оценката моделът може да предостави значителна помощ на начинаещи престъпници. Това включва подкрепа при патогенни или химически заплахи. Боаз Барак от техническия екип на OpenAI заявява, че твърдението „това е само информация от Google“ вече не е валидно. „Въз основа на нашите оценки рискът е много реален“, посочва той.
Барак добавя, че няма пълна сигурност, че моделът позволява на начинаещ да причини тежка биологична вреда. Но според него би било безотговорно продуктът да се пусне без всеобхватни мерки за намаляване на риска.
Защо фокусът върху „пандемията“ може да е грешка.
Част от експертите виждат слабост в сегашния подход. Основното внимание е насочено към сценарий, при който човек използва ИИ, за да създаде нов вирус и да предизвика пандемия. Рискът съществува, но не е единственият.
Значително по-малко внимание се отделя на други сценарии. Това включва химически оръжия, импровизирани експлозиви или биологични агенти, които не се предават между хората. Тези заплахи изискват различни знания. Производството на нервнопаралитичен агент като зарин е друга задача. Същото важи и за експлозиви.
Тези атаки могат да изглеждат „по-малки“ като мащаб. Последиците обаче могат да бъдат тежки. Химическа или експлозивна атака може да отнеме десетки или стотици животи. Тя може да блокира градове и да предизвика паника.
Експертите предупреждават и за допълнителен риск. Съвременният ИИ може да дава съвети как да се заобикалят контроли и международни ограничения. Системи могат да предложат методи за избягване на проверки при износ на чувствителни материали. Могат и да помогнат за прикриване на следи от незаконни експерименти.
Решението, според специалисти, минава през по-тясно сътрудничество между държавите и технологичните компании. Институциите имат разузнавателни данни за групи и режими, но често изостават в разбирането на най-новите ИИ възможности. Компаниите имат технически знания и данни за употребата, но нямат достъп до класифицирана информация. Липсата на обмен създава опасни слепи петна.
Затова се предлага изграждане на нови публично-частни партньорства. Целта е заплахите да се откриват по-рано, пише списание „Тайм“. Историята показва, че международни правила могат да намалят рисковете. Конвенцията за биологичните оръжия забранява разработване и притежание на такива. Женевският протокол от 1925 г. забранява използването на химически и биологични оръжия във война.
Днес предизвикателството е различно. ИИ обещава напредък в науката и медицината. Но може да се превърне и в инструмент за нови заплахи. Ако обществата гледат само най-драматичните сценарии, рискуват да пропуснат по-вероятните. Те може да са по-малки, но пак да носят тежки последствия.
Още новини в категория Технологии
Последвайте ни в Telegram: https://t.me/p26news
ЕКСКЛУЗИВНО
Предстоящото опорочаване на изборите на 19 април е факт, не измислица. Вижте кои са неговите организатори - у нас и в чужбина
РАЗСЛЕДВАНЕ
Болницата в Павликени – алчност и грабеж
БЪЛГАРИЯ
„Мяра“: Радев дърпа напред с 16 пункта пред ГЕРБ, активността расте над 3 млн. души
БЪЛГАРИЯ
„Тренд“: „Прогресивна България“ води
БЪЛГАРИЯ
Разказ за натиск и страх в изборния процес: Кметица от Чернооченско говори пред Иван Демерджиев (ВИДЕО)
БЪЛГАРИЯ
България към Радев: Господин президент, вие сте последната ни надежда!
БЪЛГАРИЯ
Гюров атакува прокуратурата: Работи по сигнали на бухалки, не на граждани
БЪЛГАРИЯ
Йотова: Всеки глас е решаващ срещу купения вот
БЪЛГАРИЯ
БЛС настоява за скок в цените: Нужни са още 904 млн. евро за клинични пътеки
СВЯТ
Фидан предупреди: След 10 години конфликтите може да станат по-неконтролируеми и разрушителни

