Сможет ли мощный ИИ разрушить отрасли, которые когда-то считались безопасными, в 2023 году?

Сможет ли мощный ИИ разрушить отрасли, которые когда-то считались безопасными, в 2023 году?


Увидит ли в 2023 году упадок ранее безопасных отраслей из-за мощного ИИ?

Ночь темна и полна ужасов, день ярок, прекрасен и полон надежд, как однажды выразился один весьма коммерчески успешный автор. Это хорошая метафора для ИИ, который, как и все технологии, имеет свои преимущества и недостатки. На что будет способен ИИ в 2023 году? Сможет ли регулирование остановить худшие последствия ИИ, или шлюзы уже открыты? Появится ли сильный, революционный новый ИИ, такой как ChatGPT, который перевернет ранее безопасные отрасли от автоматизации? Член открытой исследовательской группы «Ножи и кисти» Майк Кук согласен с Ганцем в том, что генеративный ИИ будет по-прежнему оставаться важной — и проблематичной — силой для изменений. Он считает, что в 2023 году генеративный ИИ должен «наконец вложить свои деньги в свои уста».

Мы должны ожидать тонны других подобных приложений, учитывая успех Lensa, приложения для селфи на основе искусственного интеллекта от Prisma Labs, которое стало вирусным. Ожидайте, что они будут чрезмерно сексуализировать и изменять внешний вид женщин, а также будут подвержены обману в создании фотографий NSFW. Максимилиан Ганц, старший исследователь политики в Mozilla Foundation, предсказал, что последствия таких систем, как положительные, так и отрицательные, будут усилены включением генеративного ИИ в потребительские технологии. Например, Stable Diffusion получила миллиарды фотографий из Интернета, прежде чем «научилась» связывать определенные слова и понятия с определенными образами. Модели генерации текста часто поддаются обману, продвигая оскорбительные идеологии или создавая вводящий в заблуждение контент.

Поскольку Великобритания рассматривает законопроект, который устранит требование о том, чтобы системы, обученные с использованием общедоступных данных, использовались исключительно в некоммерческих целях, ожидается усиление противодействия в следующем году. В 2022 году центральное место заняло небольшое количество предприятий, занимающихся ИИ, особенно OpenAI и Stability AI. Однако когда потенциал для создания новых систем выходит за пределы «богатых ресурсами и сильных лабораторий ИИ», как выразился Ганц, маятник может начать колебаться. вернитесь к открытому исходному коду в 2023 году.

READ  Утечки данных могут обойтись еще дороже в 2023 году

По его словам, подход, основанный на сообществе, может привести к более тщательному изучению систем по мере их разработки и ввода в эксплуатацию: «Если модели будут открытыми и если наборы данных будут открытыми, это позволит провести гораздо больше критических исследований, на которые указывалось. многие недостатки и вред, связанные с генеративным ИИ, часто слишком сложны в реализации». Большие языковые модели от EleutherAI и BigScience, проекта, поддерживаемого ИИ-фирмой Hugging Face, являются двумя примерами таких инициатив, ориентированных на сообщество. Harmonai и OpenBioML, свободная коллекция биотехнологических экспериментов, ориентированная на создание музыки, — это две группы, которые Stability AI финансирует напрямую. Хотя децентрализованные вычисления могут в конечном итоге угрожать традиционным центрам обработки данных по мере развития инициатив с открытым исходным кодом, для создания и запуска передовых моделей ИИ по-прежнему требуются деньги и навыки.

Однако Чандра отмечает, что огромные лаборатории сохранят конкурентное преимущество до тех пор, пока процедуры и информация будут храниться под замком. OpenAI представила Point-E, модель, которая может создавать 3D-объекты с нуля по текстовой команде. Хотя модель была с открытым исходным кодом, источники данных Point-training E не были раскрыты или предоставлены OpenAI. В интересах большего числа ученых, практиков и пользователей Чандра добавила: «Я действительно думаю, что усилия по открытому исходному коду и усилия по децентрализации очень полезны. Чандра считает, что эти ограничения имеют решающее значение, особенно в свете все более очевидных технических недостатков генеративного ИИ, таких как его склонность предоставлять неточную информацию. В будущем такие правила, как Закон ЕС об искусственном интеллекте, могут изменить то, как предприятия создают и используют системы искусственного интеллекта. То же самое можно сказать и о других региональных инициативах, таких как закон о найме ИИ в Нью-Йорке, который требует проведения аудита предвзятости ИИ и технологий на основе алгоритмов перед их использованием при найме, продвижении по службе или рекрутинге.

READ  Топ-10 криптовалют с высоким потенциалом роста в 2023 году

Это затрудняет использование генеративного ИИ во многих областях, где ошибки могут привести к непомерным расходам, например в здравоохранении. Кроме того, простота производства ложной информации вызывает проблемы с дезинформацией и обманом, добавила она. Несмотря на это, системы ИИ уже делают выбор, который имеет моральные и этические последствия. Однако в наступающем году регулирование будет просто угрозой; прежде чем кто-либо будет наказан или привлечен к ответственности, ожидайте гораздо больше споров о законах и юридических спорах. Тем не менее, предприятия могут по-прежнему конкурировать за позиции в наиболее благоприятных категориях новых правил, таких как категории риска в соответствии с Законом об искусственном интеллекте. В преддверии Нового года неясно, убедят ли предприятия это обоснование, особенно с учетом того, насколько активно инвесторы вкладывают средства в генеративный ИИ в целом.



Source link