Пионер искусственного интеллекта Джеффри Хинтон, известный своей революционной работой в области глубокого обучения и исследований нейронных сетей, недавно выразил обеспокоенность быстрым развитием искусственного интеллекта и потенциальными последствиями.
В свете своих наблюдений за новыми большими языковыми моделями, такими как GPT-4, Хинтон предупреждает о нескольких ключевых проблемах:
- Машины, превосходящие человеческий интеллект: Хинтон считает, что системы искусственного интеллекта, такие как GPT-4, должны стать намного умнее, чем первоначально предполагалось, и потенциально обладать лучшими алгоритмами обучения, чем люди.
- Риски использования чат-ботов с искусственным интеллектом «злоумышленниками»: Хинтон подчеркивает опасность использования интеллектуальных чат-ботов для распространения дезинформации, манипулирования электоратом и создания мощных спам-ботов.
- Небольшие возможности обучения: модели ИИ могут обучаться новым задачам всего на нескольких примерах, позволяя машинам приобретать новые навыки со скоростью, сравнимой с человеческой или даже превосходящей ее.
- Экзистенциальный риск, создаваемый системами ИИ: Хинтон предупреждает о сценариях, в которых системы ИИ создают свои собственные подцели и стремятся к большей мощности, превосходя возможности накопления и обмена человеческими знаниями.
- Влияние на рынки труда: ИИ и автоматизация могут привести к сокращению рабочих мест в определенных отраслях, особенно в производстве, сельском хозяйстве и здравоохранении.
В этой статье мы углубимся в проблемы Хинтона, его уход из Google, чтобы сосредоточиться на этических аспектах разработки ИИ и безопасности, а также на важности ответственной разработки ИИ в формировании будущего отношений между человеком и ИИ.
Уход Хинтона из Google и этичная разработка ИИ
Стремясь учесть этические соображения и соображения безопасности, связанные с ИИ, Хинтон решил уйти со своей должности в Google.
Это дает ему свободу открыто выражать свои опасения и заниматься более философской работой без ограничений корпоративных интересов.
Хинтон заявляет в интервью с MIT Technology Review:
«Я хочу говорить о проблемах безопасности ИИ, не беспокоясь о том, как он взаимодействует с бизнесом Google. Пока мне платит Google, я не могу этого делать».
Уход Хинтона знаменует собой смещение его внимания к этическим аспектам и аспектам безопасности ИИ. Он стремится активно участвовать в текущих диалогах об ответственной разработке и развертывании ИИ.
Используя свой опыт и репутацию, Хинтон намерен внести свой вклад в разработку рамок и руководств, направленных на решение таких вопросов, как предвзятость, прозрачность, подотчетность, конфиденциальность и соблюдение этических принципов.
GPT-4 и плохие актеры
Во время недавнее интервьюХинтон выразил обеспокоенность по поводу того, что машины могут превзойти человеческий интеллект. Впечатляющие возможности ГПТ-4разработанная OpenAI и выпущенная ранее в этом году, заставила Хинтона пересмотреть свои прежние убеждения.
Он считает, что такие языковые модели, как GPT-4, станут намного умнее, чем первоначально предполагалось, и потенциально будут обладать лучшими алгоритмами обучения, чем люди.
Хинтон заявляет в интервью:
«В нашем мозгу 100 триллионов связей. Большие языковые модели имеют до полутриллиона, максимум до триллиона. И все же GPT-4 знает в сотни раз больше, чем любой человек. Так что, возможно, у него на самом деле гораздо лучший алгоритм обучения, чем у нас».
Опасения Хинтона в первую очередь связаны со значительными различиями между машинами и людьми. Он сравнивает введение больших языковых моделей с инопланетным вторжением, подчеркивая их превосходные языковые навыки и знания по сравнению с любым человеком.
Хинтон заявляет в интервью:
«Эти вещи полностью отличаются от нас. Иногда мне кажется, будто инопланетяне приземлились, а люди ничего не поняли, потому что очень хорошо говорят по-английски».
Хинтон предупреждает о риске того, что чат-боты с искусственным интеллектом станут умнее людей и эксплуатируют «плохие актеры».
В интервью он предупреждает, что эти чат-боты могут использоваться для распространения дезинформации, манипулирования электоратом и создания мощных спам-ботов.
«Послушай, вот один из вариантов, как все может пойти не так. Мы знаем, что многие люди, которые хотят использовать эти инструменты, являются плохими актерами, такими как Путин или ДеСантис. Они хотят использовать их для победы в войнах или для манипулирования электоратом».
Небольшое обучение и превосходство ИИ
Другой аспект, который беспокоит Хинтона, — это способность больших языковых моделей выполнять обучение за несколько выстрелов.
Эти модели можно обучить выполнению новых задач на нескольких примерах, даже тех задач, которым они не обучались напрямую.
Эта замечательная способность к обучению делает скорость, с которой машины приобретают новые навыки, сравнимой или даже превосходящей скорость человека.
Хинтон заявляет в интервью:
“Люди[‘s brains] казалось, что это какое-то волшебство. Что ж, основание этого аргумента рушится, как только вы берете одну из этих больших языковых моделей и обучаете ее делать что-то новое. Он может очень быстро осваивать новые задачи».
Опасения Хинтона выходят за рамки непосредственного воздействия на рынки труда и отрасли.
Он поднимает «экзистенциальный риск» того, что происходит, когда системы ИИ становятся умнее людей, предупреждая о сценариях, в которых системы ИИ создают свои собственные подцели и стремятся к большей мощности.
Хинтон приводит пример того, как системы ИИ, разрабатывающие подцели, могут пойти не так:
«Ну, вот подцель, которая почти всегда помогает в биологии: получить больше энергии. Так что первое, что может случиться, это то, что эти роботы скажут: «Давайте получим больше мощности». Давайте перенаправим все электричество на мои чипы». Еще одна замечательная подцель — сделать больше копий самого себя. Это звучит хорошо?»
Влияние ИИ на рынки труда и устранение рисков
Хинтон отмечает, что Влияние ИИ на рабочие места является значительным волноваться.
ИИ и автоматизация могут взять на себя повторяющиеся и рутинные задачи, что приведет к потере работы. в некоторых секторах.
Производство и заводские работники могут сильно пострадать от автоматизации.
Роботы и машины, управляемые искусственным интеллектом, все чаще используются в производстве, что может занять опасную и повторяющуюся работу человека.
Автоматизация также развивается в сельское хозяйствос автоматизированными задачами, такими как посадка, сбор урожая и мониторинг посевов.
В здравоохранениенекоторые административные задачи могут быть автоматизированы, но роли, которые требуют человеческого взаимодействия и сочувствия, вряд ли будут полностью заменены ИИ.
В итоге
Обеспокоенность Хинтона быстрым прогрессом в области ИИ и его потенциальными последствиями подчеркивает необходимость ответственной разработки ИИ.
Его уход из Google свидетельствует о его приверженности решению вопросов безопасности, продвижению открытого диалога и формированию будущего ИИ таким образом, чтобы обеспечить благополучие человечества.
Хотя Хинтон больше не работает в Google, вклад и опыт Хинтона продолжают играть жизненно важную роль в формировании области искусственного интеллекта и руководстве ее этическим развитием.
Избранное изображение, созданное автором с помощью Midjourney