Алан Тьюринг, одна из основоположников компьютерных наук, был одержим искусственным интеллектом в конце своей трагически короткой жизни. На самом деле настолько, что он придумал неофициальный тест для определения того, когда компьютер можно назвать действительно разумным, как человек, который мы теперь называем тестом Тьюринга.
Тест довольно простой. Пусть кто-то общается с компьютером, и если он не может сказать, что разговаривает с компьютером, то есть он неотличим от человека. другому человеку — тогда компьютер поднялся бы до уровня человеческого интеллекта.
Что ж, ChatGPT, похоже, проходит этот тест с честью. (откроется в новой вкладке). На самом деле, это не просто сдача теста Тьюринга, это сдача экзаменов в медицинской школе, экзаменов на юридическом факультете и, по крайней мере, выполнение домашних заданий для каждого ребенка в Соединенных Штатах.
И если вы не знаете, что такое ChatGPT, это может показаться ошеломляющим. Настолько, что люди начинают проецировать на ChatGPT и генеративный ИИ в целом те качества и человеческие характеристики, которых у него на самом деле нет.
Обычно это не было бы слишком большой проблемой. Люди все время неправильно понимают самые разные вещи, но поскольку ИИ, подобные ChatGPT, станут более распространенными в ближайшие месяцы, люди будут вкладывать в них силы, которых у них на самом деле нет, и если они будут неправильно использоваться в соответствии с этим предположением. , они могут быть гораздо более вредными, чем полезными.
Что такое состязательный генеративный ИИ?
Основополагающая технология, лежащая в основе ChatGPT, Stable Diffusion и всех других ИИ, которые производят изображения, тесты, музыку и многое другое, известна как генеративно-состязательная сеть (GAN). Я не буду здесь слишком углубляться, но, по сути, GAN — это две программные системы, работающие вместе. Один производит результат, генератора другой определяет, являются ли эти данные действительными или нет, классификатор.
Генератор и классификатор в GAN перемещаются слово за словом или пиксель за пикселем и, по сути, борются за достижение консенсуса, прежде чем перейти к следующему сегменту. Шаг за шагом (буквально) GAN производит результат, который очень точно воспроизводит то, что может сделать человек, творчески.
Генератор полагается на непристойное количество входных данных, на которых он «обучается» для получения выходных данных, а классификатор полагается на свои собственные входные данные, чтобы определить, имеет ли смысл то, что произвел генератор. Это может быть или не быть тем, как человеческий интеллект «создает» новые вещи — неврологи все еще пытаются это понять — но во многих отношениях вы можете отличить дерево по плодам, которые оно приносит, поэтому оно должно достигать человеческого уровня. интеллект. Верно? Хорошо…
ChatGPT проходит тест Тьюринга, но имеет ли это значение?
Когда Тьюринг придумал свой тест на искусственный интеллект, он имел в виду беседу с рациональным субъектом, чтобы вы не могли сказать, что разговариваете с машиной. В этом подразумевается идея о том, что машина понимает то, что вы говорите. Не распознавать ключевые слова и генерировать вероятностный ответ на длинный набор ключевых слов, но понимание.
Для Тьюринга общение с машиной до такой степени, что она была неотличима от человеческого отраженного интеллекта, потому что создание обширного хранилища слов с различным весом, придаваемым каждому в зависимости от слов, которые предшествуют ему в предложении, просто не было чем-то, что кто-либо мог бы сделать. задумано в то время.
Математика, необходимая для такого рода расчетов, на машинах, которым понадобился целый день для выполнения расчетов, которые самый дешевый смартфон может сделать за наносекунды, выглядела бы столь же неразрешимой, как подсчет количества атомов во Вселенной. В то время это даже не учитывалось.
К сожалению, Тьюринг не прожил достаточно долго, чтобы предвидеть рост науки о данных и чат-ботов или даже интегральной схемы, на которой работают современные компьютеры. Еще до ChatGPT чат-боты были на пути к прохождению теста Тьюринга в общепринятом понимании, и любой, кто использует чат-бота для общения со своим банком, может вам сказать. Но Тьюринг не увидел бы в чат-боте искусственный разум, равный человеческому.
Чат-бот — это одноцелевой инструмент, а не интеллект. Интеллект человеческого уровня требует способности выходить за рамки параметров, которые его разработчики установили для себя, по собственной воле. ChatGPT необычайно хорошо имитирует образцы человеческого языка, но и попугай тоже, и никто не может утверждать, что попугай понимает значение слов, которые он повторяет.
Прохождение ChatGPT теста Тьюринга не означает, что ChatGPT так же умен, как человек. Это явно не так. Все это означает, что тест Тьюринга не является действительным тестом искусственного интеллекта, как мы думали.
ChatGPT не может ничему себя научить, он может учиться только тому, что люди направляют ему учиться.
На этой неделе, Об этом заявил сенатор США от Коннектикута Крис Мерфи в Twitter. (откроется в новой вкладке) что ChatGPT выучил химию сам по себе, без подсказок от своих создателей. Если сенатор Мерфи не знает чего-то, что не было обнародовано, ChatGPT в том виде, в каком мы его знаем, не может этого сделать.
Чтобы было ясно, если ChatGPT или любой другой GAN искал и узнавал что-то по своей собственной инициативе, тогда мы действительно перешли в постчеловеческий мир общего искусственного интеллекта, поскольку демонстрация независимой инициативы, несомненно, была бы признаком истинного интеллекта человеческого уровня.
Но если разработчик говорит боту пойти и узнать что-то новое, а бот делает то, что его просят, это не делает бота умным.
Делать то, что вам говорят, и делать что-то по собственной воле может выглядеть одинаково для стороннего наблюдателя, но это две совершенно разные вещи. Люди интуитивно понимают это, но ChatGPT может объяснить нам эту разницу только в том случае, если он был накормлен философскими текстами, в которых обсуждается проблема свободы воли. Если его никогда не кормили Платоном, Аристотелем или Ницше, он не сможет сам прийти к идее свободы воли. Он даже не узнает, что такая вещь существует, если ему не сказать, что она существует.
Есть причины беспокоиться о ChatGPT, но он не становится «умным».
Некоторое время я говорил об опасностях ChatGPT, в основном о том, что он не может понять, что говорит, и поэтому может выдавать клеветническую, плагиатную и совершенно неверную информацию как факт.
Существует более широкая проблема того, что ChatGPT рассматривается как замена людям-работникам, поскольку похоже, что ChatGPT (и Stable Diffusion, и другие генеративные ИИ) могут делать то, что люди могут делать быстрее, проще и намного дешевле, чем люди. труд. Это обсуждение в другой раз, но социальные последствия ChatGPT, вероятно, представляют наибольшую опасность здесь, а не то, что мы каким-то образом строим SkyNet.
ChatGPT, по своей сути, представляет собой систему подключенных цифровых узлов, каждому из которых присвоены средние значения, которые выдают логический результат на основе ввода. Это не мысль, это буквально просто математика, которую люди запрограммировали в машину. Это может выглядеть мощно, но человеческий разум, создавший его, и есть настоящий разум, и это не следует путать.