16+
Суббота, 27 июля 2024
  • BRENT $ 80.55 / ₽ 6880
  • RTS1102.01

Цитаты персоны

Все персоны
Роман Душкин

Роман Душкин

главный архитектор систем искусственного интеллекта исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ

Высказанные мнения:

сортировать   по рейтингу / по датерейтинг / дата
Мнение к материалу от 26 июня 2024 года:
«ChatGPT успешно прошел «тест Тьюринга»»
«Сам по себе тест Тьюринга — процедура, которая показывает одно: система научилась проходить тест Тьюринга. Когда Алан Тьюринг написал свою работу «Может ли машина мыслить», это было почти век назад, только эта процедура, которую он описал, достаточно сумбурно в своей работе, на этот вопрос не отвечает. По современной убежденности большинства ученых, и я не понимаю, почему ученые-когнитивисты из Калифорнийского университета, которые проводили какие-то исследования, к этим ученым не относятся, в процедуре под названием «Тест Тьюринга» никакого резона вообще нет сегодня. Сегодня модели сравнивают друг с другом и с уровнем человека при рассмотрении определенных задач, решении определенных вопросов, и для этого составляются специальные метрики и вопросники, они проверяют, насколько эта тема приближена к тому, что она отвечает, как человек, но это не значит, что она мыслит, как человек. Мы видим, что система ведет себя, как человек, и мы говорим: вот эту задачу она решает примерно на таком же уровне, как ее решал бы среднестатистический человек, при решении этих задач можем опираться на такие модели. Все делается, чтобы автоматизировать какие-то процессы, замещать человеческий разум при решении каких-то рутинных задач большими языковыми моделями. И здесь единственная серьезная проблема, которую я вижу, что, когда человек долго всматривается в ChatGPT, ChatGPT начинает изнутри него смотреть, и это начинает уже чувствоваться. Я слышал в речи некоторых людей, с которыми общаюсь, вот эти ноты: они нас начинают переделывать, это самая серьезная этическая проблема, которую я уже вижу, может быть много других, философы пусть думают».
Мнение к материалу от 17 июня 2024 года:
«OpenAI может стать коммерческой структурой»
«Они же и так были коммерческими. Microsoft их спонсирует не просто так, а для того, чтобы они Microsoft зарабатывали деньги, все же вокруг этого крутится. С чего бы это OpenAI потратила миллиарды мегаватт энергии и соответствующих денег, чтобы обучить свои модели для того, чтобы бесплатно раздавать всем желающим, это смешно. Они уже сейчас берут деньги за доступ к моделям, и поэтому то, что это будет рано или поздно ужесточаться, у меня вообще не вызывало сомнения. Здесь модель такая — подсадить всех на крючок, люди не будут видеть возможность работать без использования таких моделей, без использования интеллектуальных систем, а после этого взвинтить цены. Тут надо всем нам в России в первую очередь задуматься о том, как бы иметь такие модели внутри наших границ».
Мнение к материалу от 22 мая 2024 года:
«Фабрики — роботам»
«Интеллектуальные транспортные системы это то, что внедряется у нас повсеместно, по всей территории страны, и в них как раз используется большое количество методов искусственного интеллекта, в том числе адаптивное управление транспортными потоками, интеллектуализация управления дорожным движением, когда у нас берется транспортная модель, делается прогноз о том, что будет, потом прогноз сравнивается с фактом того, что произошло, на основании этого рекалибруется сама транспортная модель и перенастраиваются методы управления дорожным движением. И вот эта адаптивность системы управления дорожным движением как раз и показывает ту самую интеллектуальность. Это все уже внедрено на улицах городов. Например, если брать область безопасности, всякое видеонаблюдение, распознавание инцидентов на дорогах и не только на дорогах, это тоже все российские решения, интеллектуальная видеоаналитика, это все внедряется повсеместно. И многие российские компании, как раз делают решения в области интеллектуальной видеоаналитики, которые находятся и занимают первые места в мировых рейтингах, так что все идет, все постепенно движется».
Мнение к материалу от 19 мая 2024 года:
«Нейросеть «Яндекса» неохотно отвечает на острополитические вопросы»
«Большинство моделей будут неохотно разговаривать на острые политические темы. Да, если мы будем брать, допустим, ситуацию с Украиной, любая модель будет пытаться этот вопрос обойти так или иначе. Но плох тот нейромант, который не заставит модель сказать то, что ему хочется. При помощи тех или иных заклинаний можно, в общем-то, модель заставить сказать все, что угодно. А потом вне контекста, не показывая, какими были запросы, выдать любой ответ за то, что она вроде как так говорит. Если мы хотим исследовать какую-то модель искусственного интеллекта на непредвзятость, необходимо все-таки использовать научный подход, и здесь нужно разрабатывать методологию, проводить сравнительный анализ, причем в объективно одинаковых условиях, как те или иные модели реагируют на одинаковые вопросы в одинаковом же контексте. И только на основании такого глубокого исследования можно делать какие-то выводы».
Мнение к материалу от 16 мая 2024 года:
«Microsoft обратилась к сотрудникам в Китае с просьбой рассмотреть переезд»
«Это элемент мягкой силы даже не Microsoft, а гегемона США, который себе мыслит не пойми что. Естественно, они хотят ослаблять своих противников, назовем это так, а Китай и США на глобальной мировой доске в области науки, технологий и особенно искусственного интеллекта — это два самых мощных игрока, и они соперничают друг с другом. Они делят первое-второе место, поделить не могут, и я уверен, что это именно в первую очередь попытки ослабить Китай, как нас ослабляли в 90-е, когда была «утечка мозгов». Это то же самое, Microsoft хочет, чтобы перспективные молодые люди или даже немолодые ученые покидали Китай и не могли использовать свои мозги для защиты национальных интересов Китая или осуществления технического прогресса в Китае».

загрузить еще...

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию