Коммуникационные платформы обучают нейросети на данных пользователей без их ведома. ИТ-гиганты расходуют огромное количество природных и энергоресурсов на вычислительные мощности для создания и совершенствования ИИ-моделей, что меняет климат планеты. И это только начало эпохи активного использования ИИ, замечают эксперты проекта «ГенИИ». Они констатируют, что снизить риски применения ИИ можно через вдумчивый подход и тщательное тестирование решений.
ИЗДЕРЖКИ ИСПОЛЬЗОВАНИЯ
Все крупные технологические компании ориентированы на ИИ. ИТ-гиганты вкладывают в инфраструктуру для обучения LLM (Large Language Model) миллионы долларов, констатировал директор по продуктам Content AI Иван Волков.
Использование большого количества вычислительных ресурсов при обучении сложных ИИ-моделей приводит к необходимости обновления аппаратного обеспечения, коммуникационных каналов, прочей инженерной инфраструктуры, а также к увеличению затрат на электроэнергию, добавляет директор по развитию и цифровой трансформации РДТЕХ Евгений Осьминин.
Иван Волков отмечает, что для улучшения LLM действительно нужно много железа и электричества. ИИ требуются вычислительные мощности тысяч серверов, размещенных в ЦОДах, которым необходимо огромное количество электроэнергии.
В сентябре 2024 года исследователи из Калифорнийского университета выяснили, сколько воды и энергии потребляет ChatGPT OpenAI, использующий языковую модель GPT-4, выпущенную в марте 2023 года. Результаты опубликовала The Washington Post.
Процесс генерации текста за счет анализа миллионов фрагментов данных требует больших объемов воды для охлаждения серверов. В частности, Meta использовала 22 млн литров жидкости для обучения своей ИИ-модели LLaMA-3. Для сравнения – ранее ЦОД Microsoft во время обучения GPT-3 использовал гораздо меньше, порядка 700 тыс. литров воды.
Энергетические затраты на использование GPT-4 весьма высоки: даже при минимальном использовании за год требуется более 120 тыс. МВт/ч, что может обеспечить электроэнергией жилые дома столицы США в течение трех недель.
В июле 2024 года Google опубликовала отчет, в котором указано, что ее выбросы CO2 выросли на 48 процентов, в основном из-за ИИ и центров обработки данных. В свою очередь, Microsoft, в своем отчете об устойчивом развитии, обнародованном в мае, заявила, что ее углеродные выбросы из-за строительства большего количества ЦОД, построенных для поддержки рабочих нагрузок ИИ, увеличились на 29% с 2020 года.
РЕСУРСЫ ДЛЯ БИЗНЕСА
Из-за дорогостоящего железа – серверов и видеокарт, внедрение ИИ-технологий в контур компании доступно далеко не всем, говорит руководитель направления интеллектуальной автоматизации ROBIN компании SL Soft Даниил Карев.
Директор департамента голосовых цифровых технологий компании BSS Александр Крушинский подтверждает очень высокие требования к железу и скорости работы в случае необходимости развертывания нейросети в контуре предприятия, например, вместо использования облачных сервисов. Эксперт отмечает, что такие требования сегодня постепенно уменьшаются: «На текущий момент основным инструментом для этого является квантизация, при которой за счет незначительного уменьшения качества работы достигается многократное уменьшение требований к используемым GPU».
Объем ресурсов – главный ограничитель для ИТ-компаний, занимающихся созданием и развитием собственных ИИ-моделей, особенно в условиях конкуренции с гигантами, согласен Иван Волков. По его словам, выходом может стать использование готовых протренированных LLM c подходящими лицензиями для создания решений на базе ИИ. Это, правда, сужает возможности игроков, которые идут по такому пути, но позволяет добиваться практических результатов, тратя значительно меньше ресурсов.
Вычислительная сложность обучения приводит к росту популярности подходов, которые позволяют добиваться схожих результатов без такого обучения, продолжает эксперт Content AI. «Ярким примером служит RAG (Retrieval Augmented Generation), который, например, позволяет получать от LLM ответы по пользовательским данным, на которых модель не училась», - уточнил Иван Волков.
Даниил Карев отмечает, что в условиях неопределенности с ИИ не так просто сформировать команду специалистов, которая будет участвовать в разработке и доработке алгоритмов под процессы компании. Евгений Осьминин называет работу ИИ-механизмов «черным ящиком» для человека, что действительно затрудняет развитие т.н. смешанных команд и несет риски, величина которых прямо пропорциональна критичности процесса.
СЛОЖНОСТИ С ИНТЕРПРЕТАЦИЕЙ РЕЗУЛЬТАТОВ
На данном этапе развития более корректно и справедливо говорить не о «минусах», а об особенностях ИИ, которые необходимо учитывать при внедрении и использовании умных технологий, считает Евгений Осьминин.
В числе таких особенностей – высокая доля ошибок и галлюционирований при высокой правдоподобности ответов и, как следствие – невозможность гарантированного выявления этих ошибок, говорит Александр Крушинский. «Искажения не критичны, а часто даже забавны, на бытовых кейсах, но именно это не дает использовать весь потенциал ИИ в Enterprise-задачах», - подчеркнул эксперт.
Увеличению вероятности ошибочных решений, появлению галлюцинационных сущностей и фактов способствует дефицит данных и их низкое качество, продолжает Евгений Осьминин. «Большинство распространенных решений чувствительны к предметной области, на данных которой обучалась модель, что затрудняет ее масштабирование на смежные предметные области», - объяснил представитель РДТЕХ.
Даниил Карев считает, что камнем преткновения может стать и слишком большое количество данных в компании для обучения моделей ИИ.
«ML-модели на практике могут решать недоступные для других методов задачи. Характерным их техническим пробелом является сложность определения: почему в каждом конкретном случае модель выдала именно такой ответ. В задачах, где цена ошибки высока, это становится проблемой», – рассуждает Иван Волков. По его словам, особенно явно она проявляется, когда генеративные LLM выдают ошибочные ответы, которые по форме сложно отличить от правильных, что уже стало причиной ряда громких конфликтов. Например, когда юрист без перепроверки использовал в суде выдуманную сетью информацию о прецедентах по рассматриваемому делу.
Многие алгоритмы ИИ, особенно в части глубокого обучения, являются сложными и трудными для понимания человеком. Это затрудняет оценку корректности и надежности выдаваемых решений и результатов, объяснил Евгений Осьминин.
Проблема ошибочных данных нивелируется через кросс-проверки ответа разными способами, полагает Иван Волков: «Например, если вы получили от ИИ ответ по пользовательским данным благодаря RAG, то хорошо сделанная система также покажет вам документы и фрагменты из них, на основе которых он был получен. Еще пример: если вы с помощью модели извлекаете из договора информацию о стоимости работ, то убедиться в правильности ответа можно за счет извлечения сумм отдельных компонентов, из которых складывается итоговая цифра».
Евгений Крушинский рассказал, как уменьшить степень галлюционирования ИИ:
ПРОБЛЕМА БЕЗОПАСНОСТИ ДАННЫХ
Один из главных технологических недостатков ИИ – использование персональных данных (ПД) для обучения ИИ-моделей, что вызывает определенные проблемы с безопасностью и конфиденциальностью, говорит Даниил Карев.
В сентябре 2024 года стало известно, что площадка LinkedIn использует учётные записи пользователей в обучении моделей генеративного ИИ. При этом соцсеть представила новую настройку конфиденциальности и форму отказа до того, как выпустить соответствующую обновленную политику.
Несколькими днями ранее представитель Meta признался, что корпорация обогащала свои модели ИИ данными, которые пользователи публиковали с 2007 года. Нюанс в том, что в одних регионах есть возможность отказаться от такого вмешательства, но в большинстве стран в соцсети нет такой опции.
«Чтобы снизить риски, связанные с использованием ПД, разработчики ИИ в первую очередь должны уделять внимание надежным мерам защиты информации – обеспечить безопасное хранение и анонимизацию. Необходимо иметь прозрачную политику использования данных и всегда получать согласие от пользователей, иначе потеря репутации неизбежна», - отметил Даниил Карев.
Обучение модели может производиться на закрытых данных, и в этом случае она будет использовать их в ответах. При этом разграничить доступ к конфиденциальным данным или ответам, которые их включают, весьма непросто, говорит Иван Волков. Между тем в массиве данных из интернета, на которых обучаются публичные сети, могут оказаться пароли или ключи доступа, объяснил эксперт. Впоследствии они могут попадать в выдачу сети. Иван привел и другой пример: если сеть для генерации изображений училась на картинках, защищенных авторскими правами или содержащих зарегистрированные товарные знаки, то она может вставлять эти охраняемые элементы в свои сгенерированные изображения, подставляя того, кто будет их использовать в дальнейшем.
С этой проблемой борются по-разному, рассказал эксперт Content AI: «Можно специальным образом обрабатывать данные перед отправкой в публичные LLM. Если речь идет о материалах, содержащих ПД, то необходимо заменить их на выдуманные. Это важно еще и для того, чтобы обезопасить себя на случай утечки информации». Если используется RAG, то учитывают права доступа к данным на этапе построения поискового индекса, чтобы при выработке ответа LLM оперировала только теми данными, на которые у пользователя есть права, уточнил Иван Волков.
РАБОТА НАД ОШИБКАМИ
Эксперты проекта «ГенИИ» рассказали о том, как игроки рынка пытаются нивелировать несовершенства благодаря развитию инструментов ИИ. Сейчас разработки сразу нескольких крупнейших международных корпораций включены в гонку за звание «лучшей генеративной модели», и качество работы генеративного ИИ эволюционно улучшается, с каждой новой версией модели, практически - каждый месяц. Это достигается как увеличением объема и качества данных, на которых обучается модель, так и усовершенствованиями самих архитектур, говорит Александр Крушинский.
Эксперт отметил, что есть некоторые потенциально революционные теории, которые пока находятся на уровне ранних экспериментов, но выглядят довольно многообещающе. «Это, например, KAN-нейросети, архитектура которых была опубликована MIT в этом году, и обещает существенно увеличить интерпретируемость модели. Пока, правда, в основном для научно-исследовательских задач», - уточнил Александр.
Постоянное самосовершенствование и развитие – неотъемлемые принципы современных ИИ-технологий. Увеличение количества и качества данных, на которых обучается модель, неизбежно повышает качество выдаваемых результатов и тем самым, ведет к снижению ряда рисков, отметил Евгений Осьминин. По его словам, большинство разработчиков и эксплуатантов ИИ-решений следуют принципам снижения рисков, повышения качества данных и т.д. Также сфера ИИ-разработок пока является относительно открытой, что позволяет обмениваться опытом, а также развивать лучшие практики.
«Сократить время на обучение моделей позволяют дополнительные механизмы защиты от рисков – алгоритмы анализа данных на целостность, непротиворечивость и т.д., постоянный мониторинг производительности системы, механизмы обратной связи и т.д», указал эксперт РДТЕХ.
Модели ИИ могут быть обучены обнаруживать определенные типы рисков и корректировать свое поведение на основе обратной связи. Например, в банковской сфере системы могут анализировать транзакции и выявлять подозрительную активность, привел пример Иван Волков. Но, по его словам, способность ИИ самостоятельно улучшаться ограничена качеством и объемом обучающих данных, а также сложностью задачи.
«В целом пока для улучшения ИИ нужен человек. Связка «ИИ-человек» в плане дообучения может быть очень продуктивной: например, в нашей платформе для интеллектуальной обработки информации ContentCapture ИИ способен учитывать обратную связь от операторов верификации и улучшать качество автоматического извлечения данных из документов», - рассказал Иван.
Современные генеративные языковые модели на архитектуре GPT самообучаться, в прямом смысле этого слова, пока не умеют, согласен Александр Крушинский. «Процесс обучения нейросети – это ресурсозатратный процесс, который должен контролироваться живым человеком, и который пока что нельзя встроить в цикл непрерывного самообучения. То есть, чтобы переобучить GPT надо явно запустить процесс обучения», - отметил представитель BSS.
В узком смысле самообучение возможно за счет подачи на вход ИИ примеров «успешных» и «неуспешных действий», уточнил Александр.
Эпоха активного, промышленного использования ИИ только началась, констатировал Евгений Осьминин: «У ИИ впереди большой путь, который включает новые технологические уклады и формации, на котором, или в результате которого, возможно произойдут революционные изменения в части аппаратного обеспечения...
В настоящее время ИИ делает только первые шаги по этому пути, но каждый из них направлен, в том числе, на нивелирование существующих рисков. Они, наверное, связаны с завышенными ожиданиями человечества, стремлении максимально быстро внедрить часто «сырые» решения, получив экономический эффект и конкурентное преимущество.
Все первопроходцы несут риск, так как ближе остальных работают с новым и менее изученным. Такова цена любых инноваций, рассуждает Иван Волков. Эксперт заключил, что снизить риски можно, как и в других областях, через вдумчивый подход, осторожность и тщательное тестирование решений на базе ИИ перед допуском к пользователям.
Все крупные технологические компании ориентированы на ИИ. ИТ-гиганты вкладывают в инфраструктуру для обучения LLM (Large Language Model) миллионы долларов, констатировал директор по продуктам Content AI Иван Волков.
Использование большого количества вычислительных ресурсов при обучении сложных ИИ-моделей приводит к необходимости обновления аппаратного обеспечения, коммуникационных каналов, прочей инженерной инфраструктуры, а также к увеличению затрат на электроэнергию, добавляет директор по развитию и цифровой трансформации РДТЕХ Евгений Осьминин.
Иван Волков отмечает, что для улучшения LLM действительно нужно много железа и электричества. ИИ требуются вычислительные мощности тысяч серверов, размещенных в ЦОДах, которым необходимо огромное количество электроэнергии.
В сентябре 2024 года исследователи из Калифорнийского университета выяснили, сколько воды и энергии потребляет ChatGPT OpenAI, использующий языковую модель GPT-4, выпущенную в марте 2023 года. Результаты опубликовала The Washington Post.
Процесс генерации текста за счет анализа миллионов фрагментов данных требует больших объемов воды для охлаждения серверов. В частности, Meta использовала 22 млн литров жидкости для обучения своей ИИ-модели LLaMA-3. Для сравнения – ранее ЦОД Microsoft во время обучения GPT-3 использовал гораздо меньше, порядка 700 тыс. литров воды.
Энергетические затраты на использование GPT-4 весьма высоки: даже при минимальном использовании за год требуется более 120 тыс. МВт/ч, что может обеспечить электроэнергией жилые дома столицы США в течение трех недель.
В июле 2024 года Google опубликовала отчет, в котором указано, что ее выбросы CO2 выросли на 48 процентов, в основном из-за ИИ и центров обработки данных. В свою очередь, Microsoft, в своем отчете об устойчивом развитии, обнародованном в мае, заявила, что ее углеродные выбросы из-за строительства большего количества ЦОД, построенных для поддержки рабочих нагрузок ИИ, увеличились на 29% с 2020 года.
РЕСУРСЫ ДЛЯ БИЗНЕСА
Из-за дорогостоящего железа – серверов и видеокарт, внедрение ИИ-технологий в контур компании доступно далеко не всем, говорит руководитель направления интеллектуальной автоматизации ROBIN компании SL Soft Даниил Карев.
Директор департамента голосовых цифровых технологий компании BSS Александр Крушинский подтверждает очень высокие требования к железу и скорости работы в случае необходимости развертывания нейросети в контуре предприятия, например, вместо использования облачных сервисов. Эксперт отмечает, что такие требования сегодня постепенно уменьшаются: «На текущий момент основным инструментом для этого является квантизация, при которой за счет незначительного уменьшения качества работы достигается многократное уменьшение требований к используемым GPU».
Объем ресурсов – главный ограничитель для ИТ-компаний, занимающихся созданием и развитием собственных ИИ-моделей, особенно в условиях конкуренции с гигантами, согласен Иван Волков. По его словам, выходом может стать использование готовых протренированных LLM c подходящими лицензиями для создания решений на базе ИИ. Это, правда, сужает возможности игроков, которые идут по такому пути, но позволяет добиваться практических результатов, тратя значительно меньше ресурсов.
Вычислительная сложность обучения приводит к росту популярности подходов, которые позволяют добиваться схожих результатов без такого обучения, продолжает эксперт Content AI. «Ярким примером служит RAG (Retrieval Augmented Generation), который, например, позволяет получать от LLM ответы по пользовательским данным, на которых модель не училась», - уточнил Иван Волков.
Даниил Карев отмечает, что в условиях неопределенности с ИИ не так просто сформировать команду специалистов, которая будет участвовать в разработке и доработке алгоритмов под процессы компании. Евгений Осьминин называет работу ИИ-механизмов «черным ящиком» для человека, что действительно затрудняет развитие т.н. смешанных команд и несет риски, величина которых прямо пропорциональна критичности процесса.
СЛОЖНОСТИ С ИНТЕРПРЕТАЦИЕЙ РЕЗУЛЬТАТОВ
На данном этапе развития более корректно и справедливо говорить не о «минусах», а об особенностях ИИ, которые необходимо учитывать при внедрении и использовании умных технологий, считает Евгений Осьминин.
В числе таких особенностей – высокая доля ошибок и галлюционирований при высокой правдоподобности ответов и, как следствие – невозможность гарантированного выявления этих ошибок, говорит Александр Крушинский. «Искажения не критичны, а часто даже забавны, на бытовых кейсах, но именно это не дает использовать весь потенциал ИИ в Enterprise-задачах», - подчеркнул эксперт.
Увеличению вероятности ошибочных решений, появлению галлюцинационных сущностей и фактов способствует дефицит данных и их низкое качество, продолжает Евгений Осьминин. «Большинство распространенных решений чувствительны к предметной области, на данных которой обучалась модель, что затрудняет ее масштабирование на смежные предметные области», - объяснил представитель РДТЕХ.
Даниил Карев считает, что камнем преткновения может стать и слишком большое количество данных в компании для обучения моделей ИИ.
«ML-модели на практике могут решать недоступные для других методов задачи. Характерным их техническим пробелом является сложность определения: почему в каждом конкретном случае модель выдала именно такой ответ. В задачах, где цена ошибки высока, это становится проблемой», – рассуждает Иван Волков. По его словам, особенно явно она проявляется, когда генеративные LLM выдают ошибочные ответы, которые по форме сложно отличить от правильных, что уже стало причиной ряда громких конфликтов. Например, когда юрист без перепроверки использовал в суде выдуманную сетью информацию о прецедентах по рассматриваемому делу.
Многие алгоритмы ИИ, особенно в части глубокого обучения, являются сложными и трудными для понимания человеком. Это затрудняет оценку корректности и надежности выдаваемых решений и результатов, объяснил Евгений Осьминин.
Проблема ошибочных данных нивелируется через кросс-проверки ответа разными способами, полагает Иван Волков: «Например, если вы получили от ИИ ответ по пользовательским данным благодаря RAG, то хорошо сделанная система также покажет вам документы и фрагменты из них, на основе которых он был получен. Еще пример: если вы с помощью модели извлекаете из договора информацию о стоимости работ, то убедиться в правильности ответа можно за счет извлечения сумм отдельных компонентов, из которых складывается итоговая цифра».
Евгений Крушинский рассказал, как уменьшить степень галлюционирования ИИ:
- На уровне промпт-инжениринга (например, попросить модель проверить саму себя или рассказать цепочку рассуждений перед тем, как сказать вывод).
- На уровне подготовки информации, когда мы просим нейросеть отвечать строго по переданным на вход данным и подготавливаем эти данные для максимизации качества ответа ИИ.
- На уровне организационных мер. Например, проверить результат работы нейросети человеком или указывать при ответах ссылки на исходный материал для возможности фактчекинга.
ПРОБЛЕМА БЕЗОПАСНОСТИ ДАННЫХ
Один из главных технологических недостатков ИИ – использование персональных данных (ПД) для обучения ИИ-моделей, что вызывает определенные проблемы с безопасностью и конфиденциальностью, говорит Даниил Карев.
В сентябре 2024 года стало известно, что площадка LinkedIn использует учётные записи пользователей в обучении моделей генеративного ИИ. При этом соцсеть представила новую настройку конфиденциальности и форму отказа до того, как выпустить соответствующую обновленную политику.
Несколькими днями ранее представитель Meta признался, что корпорация обогащала свои модели ИИ данными, которые пользователи публиковали с 2007 года. Нюанс в том, что в одних регионах есть возможность отказаться от такого вмешательства, но в большинстве стран в соцсети нет такой опции.
«Чтобы снизить риски, связанные с использованием ПД, разработчики ИИ в первую очередь должны уделять внимание надежным мерам защиты информации – обеспечить безопасное хранение и анонимизацию. Необходимо иметь прозрачную политику использования данных и всегда получать согласие от пользователей, иначе потеря репутации неизбежна», - отметил Даниил Карев.
Обучение модели может производиться на закрытых данных, и в этом случае она будет использовать их в ответах. При этом разграничить доступ к конфиденциальным данным или ответам, которые их включают, весьма непросто, говорит Иван Волков. Между тем в массиве данных из интернета, на которых обучаются публичные сети, могут оказаться пароли или ключи доступа, объяснил эксперт. Впоследствии они могут попадать в выдачу сети. Иван привел и другой пример: если сеть для генерации изображений училась на картинках, защищенных авторскими правами или содержащих зарегистрированные товарные знаки, то она может вставлять эти охраняемые элементы в свои сгенерированные изображения, подставляя того, кто будет их использовать в дальнейшем.
С этой проблемой борются по-разному, рассказал эксперт Content AI: «Можно специальным образом обрабатывать данные перед отправкой в публичные LLM. Если речь идет о материалах, содержащих ПД, то необходимо заменить их на выдуманные. Это важно еще и для того, чтобы обезопасить себя на случай утечки информации». Если используется RAG, то учитывают права доступа к данным на этапе построения поискового индекса, чтобы при выработке ответа LLM оперировала только теми данными, на которые у пользователя есть права, уточнил Иван Волков.
РАБОТА НАД ОШИБКАМИ
Эксперты проекта «ГенИИ» рассказали о том, как игроки рынка пытаются нивелировать несовершенства благодаря развитию инструментов ИИ. Сейчас разработки сразу нескольких крупнейших международных корпораций включены в гонку за звание «лучшей генеративной модели», и качество работы генеративного ИИ эволюционно улучшается, с каждой новой версией модели, практически - каждый месяц. Это достигается как увеличением объема и качества данных, на которых обучается модель, так и усовершенствованиями самих архитектур, говорит Александр Крушинский.
Эксперт отметил, что есть некоторые потенциально революционные теории, которые пока находятся на уровне ранних экспериментов, но выглядят довольно многообещающе. «Это, например, KAN-нейросети, архитектура которых была опубликована MIT в этом году, и обещает существенно увеличить интерпретируемость модели. Пока, правда, в основном для научно-исследовательских задач», - уточнил Александр.
Постоянное самосовершенствование и развитие – неотъемлемые принципы современных ИИ-технологий. Увеличение количества и качества данных, на которых обучается модель, неизбежно повышает качество выдаваемых результатов и тем самым, ведет к снижению ряда рисков, отметил Евгений Осьминин. По его словам, большинство разработчиков и эксплуатантов ИИ-решений следуют принципам снижения рисков, повышения качества данных и т.д. Также сфера ИИ-разработок пока является относительно открытой, что позволяет обмениваться опытом, а также развивать лучшие практики.
«Сократить время на обучение моделей позволяют дополнительные механизмы защиты от рисков – алгоритмы анализа данных на целостность, непротиворечивость и т.д., постоянный мониторинг производительности системы, механизмы обратной связи и т.д», указал эксперт РДТЕХ.
Модели ИИ могут быть обучены обнаруживать определенные типы рисков и корректировать свое поведение на основе обратной связи. Например, в банковской сфере системы могут анализировать транзакции и выявлять подозрительную активность, привел пример Иван Волков. Но, по его словам, способность ИИ самостоятельно улучшаться ограничена качеством и объемом обучающих данных, а также сложностью задачи.
«В целом пока для улучшения ИИ нужен человек. Связка «ИИ-человек» в плане дообучения может быть очень продуктивной: например, в нашей платформе для интеллектуальной обработки информации ContentCapture ИИ способен учитывать обратную связь от операторов верификации и улучшать качество автоматического извлечения данных из документов», - рассказал Иван.
Современные генеративные языковые модели на архитектуре GPT самообучаться, в прямом смысле этого слова, пока не умеют, согласен Александр Крушинский. «Процесс обучения нейросети – это ресурсозатратный процесс, который должен контролироваться живым человеком, и который пока что нельзя встроить в цикл непрерывного самообучения. То есть, чтобы переобучить GPT надо явно запустить процесс обучения», - отметил представитель BSS.
В узком смысле самообучение возможно за счет подачи на вход ИИ примеров «успешных» и «неуспешных действий», уточнил Александр.
Эпоха активного, промышленного использования ИИ только началась, констатировал Евгений Осьминин: «У ИИ впереди большой путь, который включает новые технологические уклады и формации, на котором, или в результате которого, возможно произойдут революционные изменения в части аппаратного обеспечения...
В настоящее время ИИ делает только первые шаги по этому пути, но каждый из них направлен, в том числе, на нивелирование существующих рисков. Они, наверное, связаны с завышенными ожиданиями человечества, стремлении максимально быстро внедрить часто «сырые» решения, получив экономический эффект и конкурентное преимущество.
Все первопроходцы несут риск, так как ближе остальных работают с новым и менее изученным. Такова цена любых инноваций, рассуждает Иван Волков. Эксперт заключил, что снизить риски можно, как и в других областях, через вдумчивый подход, осторожность и тщательное тестирование решений на базе ИИ перед допуском к пользователям.