№12 декабрь 2024

Портал функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций.

Страницы: Пред. 1 ... 19 20 21 22 23 24 След.
RSS
Есть ли «камень преткновения» у создателей Искусственного Интеллекта? Какой он?, В «Н и Ж» №2 2018г. с тр. 44 редакция открыла для обсуждения тему «Искусственный интеллект», пригласив писателей и учёных. Правда, предложила узкий формат темы – «ИИ друг или враг». Это крайности - истина, как известно, всегда посередине.
Цитата
Техник пишет:
Нет у осла никаких оптимумов
Ну так мы и не про осла говорим, а про задачу и ее решения. И вот у решений оптимумы есть.
Цитата
Техник пишет:
Вы наверно ещё больше удивитесь, но метод Монте-Карло мы проходили ещё в школе
Прекрасно, я тоже узнал про него в средней школе из журнала "Квант". Тогда суть оптимизаций должна быть вам понятна еще в большей степени.
Цитата
Ну, разница всё-таки есть. И в данном случае вряд ли кто-то скармливает базу фото-видео ввиду отсутствия необходимости.
Вроде как гугл и фейсбук этим занимаются.
Цитата
Техник пишет:
А, ну да, я забыл. Весь мир - иллюзия... )))
Нет, речь о том, что мы воспринимаем лишь ограниченную часть информации, доступную нашему вниманию и разумению. И качество этого восприятия находится лишь на уровне (довольно невысоком), необходимом для выживания.
Внимание! Есть полагание основать, что личное мнение содержит исключительно сообщение автора. Оно может не отвечать, что соответствует научности по критериям данности.
Цитата
BETEP IIEPEMEH пишет:
Ключевое слово - вручную.
Ну, не думаю, что ключевое. Оно указывает на причину неуспеха тогда. А что ж не используется сейчас, когда можно не вручную?
Но с другой стороны, сейчас есть кодирование характеристик в нейронном переводе. Как-то не видно принципиального отличия от замысла интерлингвы. Я бы сказал, что это кодирование характеристик более ориентировано на машину, это язык сугубо для машины - для переводческой машины.

Вообще, как-бы обсуждение не свелось к борьбе теплого с мягким. По моему представлению можно указать два принципиальных подхода создания ИИ - конструировать его сущность или имитировать его проявления.
Вроде, конструировать сущность кажется более правильным, однако никто толком не знает, что это такое и каждый изобретатель конструирует своё представление об интеллекте. Критерия И. нет и никто с уверенностью не может сказать, мол 1000 строк этого программного кода умнее тысячи строк другого.
Имитация с использованием больших баз данных может запудрить мозги экспертов на короткое время, но возникнут проблемы, когда эксперты начнут мучить машину долгое время и в широком круге задач.
Но эти подходы не противоположны. В процессе совершенствования они будут сходиться.

Касательно перевода, практическое применение Google Translate для газетных текстов вполне устраивает большинство народа. А учитывая улучшение качества перевода, почему бы не экстраполировать на будущее?
А вот применение машинного перевода для литературных текстов мне очень сомнительно. Все эти метафоры, аллюзии и желание каждого автора выпендриться своим языком и стилем, как-то это плохо алгоритмизируется.
Прогнозирую, даже, литературу обыгрывающую машинный перевод (в смысле описывающими свойства машинного перевода художественными средствами). Примерно так: берется текст неоднозначного содержания, как про мужа и жену, прогоняется перевод на китайский и обратно, а затем иронизируем над переводом используя то одно значение исходного текста, то другое. И как бедной машине перевести всё это эссе?

Цитата
Olginoz пишет:
Перевод сказки должен быть художественным, красивым и отражать смысл.
Спасибо, Olginoz, это интересно.
Хочу ещё отметить, что в переводе нет мышей или мух. То ли перевод учитывает детскую направленность, то ли рифмуемость кошки-мышки-мошки.
Интересно также обилие переводов на русский язык стихотворения Э. По Ворон. Процесс растянулся уже на полтораста лет.
В споре не рождается истина, но убивается время.
Цитата
eLectric пишет:
А что ж не используется сейчас, когда можно не вручную?
Используется же, статья именно о том, что Гугл и Яндекс начали это делать.
Цитата
eLectric пишет:
Я бы сказал, что это кодирование характеристик более ориентировано на машину, это язык сугубо для машины - для переводческой машины.
Там в статье были отсылки, что результаты также полезны и лингвистам.

Если проводить аналогии, то все это очень похоже на Фурье-анализ. Преобразование Фурье помогает выявить в исходном сигнале некоторые частотные характеристики, которые ориентированы отнюдь не на "машину", а на исследователей, помогает выявить им неочевидные закономерности. Здесь та же история - помимо собственно перевода.
Внимание! Есть полагание основать, что личное мнение содержит исключительно сообщение автора. Оно может не отвечать, что соответствует научности по критериям данности.
Цитата
BETEP IIEPEMEH пишет:
Используется же, статья именно о том, что Гугл и Яндекс начали это делать.
Да, согласен.
Цитата
BETEP IIEPEMEH пишет:
некоторые частотные характеристики, которые ориентированы отнюдь не на "машину", а на исследователей, помогает выявить им неочевидные закономерности. Здесь та же история - помимо собственно перевода.
Это в смысле, что самообучающаяся машина сама определяет те важные характеристики, которые следует выявлять?
В споре не рождается истина, но убивается время.
BETEP IIEPEMEH:
Цитата
Эмоции - это всего лишь запрограммированная реакция на определенный раздражитель.
Я с этим пожалуй соглашусь. Если брать живых высших животных и человека, то этим «программистом» реакции организма, которую мы называем словом «эмоция», была понятное дело живая природа и её эволюция. С этим как бы всё понятно и спорить не с чем. За исключением того, что с эмоциями мы ассоциируем некую высшую или не очень, но разумность.

И тут уже переходя на неживые «умные» вещи, например, робот-пылесос не самой плохой модели, мы видя поведение этого робота-пылесоса, когда он наталкиваясь на препятствие отъезжает назад, поворачивается на несколько градусов в сторону и объехав препятствие пылесосит дальше или когда робот-пылесос подъезжает к краю уступа или ступеньки лестницы, ведущей вниз так же останавливается, поворачивается на несколько градусов в сторону и избежав падения с уступа или ступеньки продолжает пылесосить, или когда наступает критический разряд аккумулятора он быстренько приезжает на свою зарядную станцию – и при этом мы не приписываем и не признаём никакой разумности в его «поведении» (слово «поведении» беру в кавычки, так поведением, как принято считать обладают лишь живые существа), так как знаем, что этот робот-пылесос просто запрограммирован человеком на такое его «поведение».

Но вот представьте, что этому роботу-пылесосу программист то ли в шутку, то ли с хитрым умыслом позабавить пользователя запрограммировал в него эмоциональную реакцию на те случаи в его «действиях», которые он выполняет. И тогда, например, вышеописанные действия будут внешне выглядеть следующим образом.

Мы увидим поведение этого робота-пылесоса, когда он наталкиваясь на препятствие эмоционально говорит в мини-динамик «Вот опять упёрся, понаставили же мне всего чего попало» (или «Ну кто так строит, кто так строит» или «Как же это всё меня достало, не дают нормально работать»), отъезжает назад, поворачивается на несколько градусов в сторону и объехав препятствие со словами «Вперёд к победе чистоты во всей квартире» пылесосит дальше или когда робот-пылесос подъезжает к краю уступа или ступеньки лестницы эмоционально говорит «Ой, боюсь, боюсь, назад, назад, а то кирдыкнусь» (или «Эх, почему я не птица, почему не летаю»), ведущей вниз так же останавливается, поворачивается на несколько градусов в сторону и избежав падения с уступа или ступеньки со словами «Нам песня строить и пылесосить помогает» продолжает пылесосить, или когда наступает критический разряд аккумулятора он со словами «Ах как хочется покушать электрончиков» быстренько приезжает на свою зарядную станцию.

:) Ну вот - совсем другое восприятие нами человеками будет этого эмоционального робота-пылесоса, даже какую-то разумность в нём можно заподозрить или приписать или присвоить – как кому нравится.

Впрочем эмоции роботов не новинка – вспомните хотя бы «Звёздные войны».
Да и сейчас делается не мало роботов-гуманоидов с человеческим лицом из силикона или другой мягкой пластмассы, которые довольно неплохо могут изображать на своём лице эмоции подобно человеку. Конечно, до человека им ещё далековато, но как мне представляется это правильное и перспективное направление за которым будущее.

Как мне видится, при создании ИИ проектировщики, программисты и пользователи роботов с эмоциями всё больше и больше будут задаваться такими вопросами как что такое вообще разумность? Что такое вообще понимание? Что такое вообще желание? Что такое вообще осмысленность действий?
Внимание! Данное сообщение содержит исключительно личное мнение автора. Есть основания полагать, что оно может не отвечать критериям научности.
Техник:
Цитата
Так вот собственно вопрос-то как раз в том, как заставить машину "захотеть".
Как мне понимается, заставить машину «захотеть» не проблема. Тот же робот-пылесос или стиральная машина-автомат или другое «умное» современное устройство вполне себе «хочет» и делает то, что запрограммировано в них и для чего оно конструктивно приспособлено и создано человеком. А если эти устройства начнут хотеть чего-то «того», что не запрограммировано в них и конструктивно для «этого» они не приспособлены, что тогда будет – у них будет некий сбой программы или глюк или вообще поломка в понимании уже человека.

Мне кажется, что вы мечтая о том «как заставить машину "захотеть"» сами не представляете, а что же это вообще такое это «захотеть». Где тот критерий, когда можно будет сказать, что ИИ уже чего-то хочет сам, а не то, что запрограммировал ему человек. Где та граница, если она вообще есть, когда переходя которую уже можно сказать, что ИИ уже чего-то хочет сам, а не то, что запрограммировал ему человек.

Мне кажется, что тут всё будет зависеть от договорённостей между людьми-специалистами в программировании, робототехниками и психологами. Захотят и договорятся они считать по поводу эмоционального робота-пылесоса, что он имеет свою «хотелку» - значит так тому и быть.

Техник:
Цитата
Может ли машина понимать смысловое содержание выявленных искусственной нейросетью абстрактов?
Это тоже довольно не простой вопрос, который «упирается» в понимание того, а что вы или кто-то другой понимает под фразой «смысловое содержание». Что значит это «смысловое содержание»? В чём суть этого «смыслового содержания»? Что это вообще такое «смысловое содержание»? Вот мы, например, сможем выяснить понимает ли это «смысловое содержание», например слова «абракадабра» ваш собеседник или нет? Сложно? Только после беседы с ним и по его каким-то действиям можно как-то условно предположить, что он понял так как вы «смысловое содержание» слова «абракадабра». А как понять понимает ли это «смысловое содержание» созданный человеком ИИ? Вообще как мне кажется это невозможно. Да и вообще понимание «смыслового содержания» - есть адекватная реакция на какие-то команды в программе, которую мы должны расценивать как понимание этих команд ИИ. Именно понимание. А раз есть у ИИ понимание команд программы, значит автоматически можно считать, что ИИ понял и «смысловое содержание» этих команд.
Внимание! Данное сообщение содержит исключительно личное мнение автора. Есть основания полагать, что оно может не отвечать критериям научности.
BETEP IIEPEMEH:
Цитата
А нужно ли это? Мне нравится точка зрения, в которой сознание является лишь приспособительным механизмом, который был найден природой как более гибкий способ поддержания гомеостаза. Но при этом само сознание (как осознание) является иллюзией в том плане, что не оно принимает решения (несмотря на то, что нам кажется именно так), а на самом деле решения, принятые всем организмом как целым (в том числе с участием пищеварительной и прочих систем), доводятся до него (осознаются).

Если рассматривать животных, то это ваше мнение вполне к ним подходит. При этом не следует забывать, что и мозг входит в понятие «всего организма как целого».
Но вот с человеком не всё так просто. Человеческое сознание вполне может противостоять влиянию «хотелок» всего организма и действовать по своему усмотрению и командовать всем организмом, порой даже наперекор ему или даже с риском причинения организму вреда. И вот тут у человека начинается конкурентная борьба между «хотелками» мозга и всего остального организма. Вот потому человек и страдает от этой конкурентной борьбы.

BETEP IIEPEMEH:
Цитата
Отличные примеры, которые демонстрируют нашу иррациональность и отсутствие контроля над происходящим у сознания, мы видим, к примеру, в теме о ковиде. Если организм как целое уже принял некоторое решение, то никакие логические внешние доводы не смогут раз выбранную позицию изменить, а сознание будет выдумывать какие угодно оправдания (то есть адаптироваться к выработанной организмом позиции), лишь бы поддерживать систему в целостности (сохранять гомеостаз).
Сознание лишь воображает себе, будто руководящая роль здесь принадлежит ему, а на деле играет лишь вспомогательную роль. Шеей здесь является бессознательное, которое вертит сознательным как хочет. Роль же сознательного заключается лишь в подсвечивании (как фонариком при ремонте автомобиля) фокусом внимания тех акцентов, которым с точки зрения бессознательного нужно уделить более пристальное внимание. Фактически, сознание - это пятно от света фонарика (фокус внимания) и есть - ему показывают: "Смотри, какая история тут приключилась, подсвети, пока мы тут все разрулим".
В итоге, вся наша "сознательность" оказывается эфемерной, а "сознание" - иллюзией, что вполне согласуется с тем, когда и как появлялись те или иные разделы мозга, и как именно происходит усложнение его систем.

Ну то, что сознание это всего лишь нематериальное свойство человеческого мозга (возможно и не только человеческого) давно известно. И потому назвать сознательность «эфемерным» или «иллюзией» - вполне допустимо, но это только яркие и впечатляющие названия слова «свойство».

BETEP IIEPEMEH:
Цитата
В этом отношении не нужно пытаться заставлять машину что-либо хотеть - даже в нашем случае все эти хотелки имеют чисто "механистический" характер. Вся биологическая эволюция протекает в направлении приспосабливаемости, как решение оптимизационной задачи: выжить, победить в конкурентной борьбе, оставив потомство с наименьшими затратами. И человек с его мозгом и сознанием здесь не исключение. Да, мы представляем собою очень сложные системы, но в конечном итоге они созданы лишь для решения оптимизационных задач.

Ну почему же, очень было бы интересно наделить ИИ своей «хотелкой». Например робот-гуманоид (ходящий или движущийся на колёсах) вполне себе может хотеть найти себе зарядное устройство, когда заряд его аккумулятора будет критическим и он с эмоциональным вопросом к вам «Скажите, пожалуйста, где здесь ближайшее зарядное устройство?» после вашего указания где, с радостным «Спасибо, а то я уже стал волноваться» понесётся в указанном направлении.  
:) Ну как после этого не улыбнуться ему вслед? А потом подумать – надо же, почти как живой и разумный….
Изменено: Вася из Минска - 20.10.2021 19:02:30
Внимание! Данное сообщение содержит исключительно личное мнение автора. Есть основания полагать, что оно может не отвечать критериям научности.
eLectric:
Цитата
Смыслом информации являются те действия, которые выполняет приемник информации при её получении.

Это где-то близко, но…
Вот автоответчик-магнитофон принял звонок-информацию и включил запись сообщения и потому здесь приёмник выполнил действия при её получении. Но можно ли в этом случае сказать, что понял смысл информации автоответчик-магнитофон? Наверное нет.

eLectric:
Цитата
Ну, а понимать информацию, значит уметь что-то сделать при её получении, а не выругаться нехорошим словом Error.

Вот автоответчик-магнитофон принял звонок-информацию и включил запись сообщения и потому здесь приёмник выполнил действия при её получении, так как умел это сделать ввиду соей конструкции и назначения. Но можно ли в этом случае сказать, что понял информацию автоответчик-магнитофон? Наверное нет.
Внимание! Данное сообщение содержит исключительно личное мнение автора. Есть основания полагать, что оно может не отвечать критериям научности.
Техник:
Цитата
Наконец-то мы вернулись к тому, с чего начали. Так что нужно сделать, чтобы искусственная нейросеть начала активно изучать окружающий мир? Чего ей не хватает?
Не хватает, как мне думается, соответствующей программы. Человека, да и не только человека, программировала на изучение окружающего мира в ходе эволюции Природа, а человек, как «дитя» и продолжатель действий Природы, неизбежно будет создавать ИИ по своему образу и подобию и не только для изучения окружающего мира, но и для многих, многих других целей, полезных и нужных не только для человека, но и для самого ИИ, закладывая их в программы ИИ.
Изменено: Вася из Минска - 20.10.2021 19:19:24
Внимание! Данное сообщение содержит исключительно личное мнение автора. Есть основания полагать, что оно может не отвечать критериям научности.
BETEP IIEPEMEH:
Цитата
Нет, речь о том, что мы воспринимаем лишь ограниченную часть информации, доступную нашему вниманию и разумению. И качество этого восприятия находится лишь на уровне (довольно невысоком), необходимом для выживания.

Антимасочники и антивакцинаторы на ковид не подпадают под ваше это утверждение. Они, как я думаю, жить не очень то хотят. Или у них другие критерии по выживаемости? :)
Внимание! Данное сообщение содержит исключительно личное мнение автора. Есть основания полагать, что оно может не отвечать критериям научности.
Страницы: Пред. 1 ... 19 20 21 22 23 24 След.

Есть ли «камень преткновения» у создателей Искусственного Интеллекта? Какой он?


Портал журнала «Наука и жизнь» использует файлы cookie и рекомендательные технологии. Продолжая пользоваться порталом, вы соглашаетесь с хранением и использованием порталом и партнёрскими сайтами файлов cookie и рекомендательных технологий на вашем устройстве. Подробнее