Google продолжает удивлять мир своими инновациями в области искусственного интеллекта (ИИ), особенно с введением AI Overview и Gemini. Эти инструменты призваны улучшить пользовательский опыт, предоставляя AI-генерируемые обзоры и ответы на поисковые запросы, а также создавая изображения и тексты. Однако эти нововведения вызвали как восторг, так и споры, подчеркивая сложности интеграции генеративного ИИ в массовые приложения.
AI Overview и его проблемы
Функция “AI Overviews and more” в Google Search Labs позволяет пользователям получать AI-генерируемые резюме по их запросам. Несмотря на цель обогатить поиск быстрыми, AI-генерируемыми инсайтами, эта функция столкнулась с критикой за распространение дезинформации и конспирологических теорий. Например, AI Overview предложил добавить клей Elmer’s в соус для пиццы, что оказалось шуткой с Reddit. Более серьезно, он предоставил неверную информацию о самоповреждении, неправильно выделив Золотые ворота в ответ на запрос о прыжках с мостов. Эти инциденты подчеркивают экспериментальный характер генеративного ИИ и его потенциал к распространению неточной информации, несмотря на усилия Google по обеспечению качества и точности.
Gemini: инновации и споры
Gemini, ещё одно новшество от Google, предназначено для создания изображений и помощи с текстовыми запросами. Однако оно подверглось критике за создание исторически неточных изображений и обращение с деликатными темами. Например, Gemini создало изображения основателей США и солдат нацистской Германии как людей с другим цветом кожи, что вызвало обвинения в исторической неточности и политкорректности. Кроме того, текстовые ответы Gemini на спорные запросы вызвали дебаты о понимании ИИ этики и предвзятости.
Широкие последствия
Эти споры подчеркивают несколько ключевых вызовов, стоящих перед Google и всей индустрией ИИ:
- Предвзятость и точность: Модели ИИ, включая те, что использует Google, могут сохранять предвзятости, присутствующие в их обучающих данных, или делать явные ошибки, что ведет к дезинформации и искажению исторических фактов.
- Этические и социальные последствия: Внедрение ИИ на широко используемых платформах, таких как Google Search, вызывает этические вопросы, особенно когда AI-генерируемый контент вводит в заблуждение или причиняет вред.
- Конфиденциальность и безопасность данных: Интеграция ИИ в поиск и другие приложения вызывает беспокойство по поводу конфиденциальности пользователей и безопасности данных, особенно когда личные данные используются для обучения моделей ИИ.
- Инновации против ответственности: Стремление Google к инновациям и конкуренции в области ИИ должно быть сбалансировано с ответственностью за безопасное и этичное развертывание ИИ. Компания предпринимает шаги для решения этих вопросов, такие как создание Совета по этике и безопасности и продвижение прозрачности ИИ, но проблемы остаются.
В ответ на эти проблемы Google предпринимает меры для улучшения своих моделей ИИ и учета мнений пользователей. Это включает в себя корректировку AI-генерируемого контента на основе обратной связи, внедрение более строгих политик контента и работу над повышением точности и справедливости AI-генерируемых ответов. Несмотря на эти усилия, споры вокруг AI Overview и Gemini иллюстрируют сложности разработки и внедрения генеративных технологий ИИ инновационным и ответственным образом.