Когда OpenAI, нежно оберегая свои технологии от военных, внезапно решила, что “почему бы и нет?”, это вызвало волну споров. The Intercept, не отличающийся особой склонностью к сенсационным заголовкам, сообщает о скрытом изменении политики использования ChatGPT. До 10 января в этой политике четко было указано: “не для военных целей”. Но теперь, как магия – исчезло!
Официальная версия от OpenAI? “Делаем документ более читабельным”. Ага, конечно, и карликовые единороги существуют. Под “читаемостью” видимо подразумевается удаление неудобных ограничений.
Интересно, что запрет на “нанесение вреда себе или другим” остался, как будто военное использование AI не предполагает вреда. “Не вредите другим” – красиво звучит, но в контексте военных технологий звучит, как минимум, наивно.
Управляющий директор AI Now Майерс Уэст высказывает предположение, что AI уже использовался для атак в Секторе Газа. Неужели именно это побудило OpenAI к изменению политики? Видимо, это одна из тех загадок, которые мы не разгадаем, пока не появится очередная утечка информации.
Напомним, ранее в 2023 году правительство США заявило о “человеческой ответственности” в использовании искусственного интеллекта в армии. В свете последних событий эти слова звучат… ну, как сказать помягче… оптимистично?
И, конечно же, не забудем о призыве генерального секретаря ООН Гутерриша против “роботов-убийц”. Возможно, пора добавить “и их создателей”.
Заключение? OpenAI, возможно, открывает Пандорин ящик, пуская в мир технологии, потенциал которых в военных руках может быть… непредсказуемым. Но, конечно, все под контролем. Ведь правила были сделаны для того, чтобы их… переписывать?