[QUOTE]smer4 sssmeeer пишет:
[QUOTE]Согласен, таким макаром робот сам научится ходить по паучьи, вплоть до совершенства.[/QUOTE]найти можно на ютубе, извини но лень искать где было...
кстати в опыте бывало что они эволюционировали непредсказуемо и нежелательно, один начинал ползать извиваясь как червь, другой начинал делать мелкие шажки на цыпочках так что голая программа адаптации нуждается в методах корректировки, которым даже описания пока нет.
[/QUOTE]
Вот!
А представьте, если мы будем делать самообучающегося андроида. Каждая система которого (там координация, речь, распознавание объектов и прочая - все системы) самообучающаяся. А именно это нам и нужно будет делать. Сверхсложная задача. Но и это не беда.
Беда в том, что даже если мы его создадим, то каждая его система по отдельности будет китайской комнатой всё равно. Сознание ниоткуда не появится все равно.
[QUOTE]smer4 sssmeeer пишет:
[QUOTE]Но вы же понимаете, что это та же самая Китайская комната? [/QUOTE]там мне показалось несколько другое, там описан скорее конечный автомат (так как набор вопросов и ответов конечен, а без осмысления иероглифов нельзя свободно говорить), а человек там все таки осознает, что ему дают какие то иероглифы и он какими - то иероглиффами отвечает в то время как калькулятор не осознает ВООБЩЕ НИЧЕГО.
[/QUOTE]
Нет, эксперимент китайская комната шикарный. По моему вы не до конца его поняли.
Он создан для того, чтобы человек, выступающий вместо машины, выполняющей команды алгоритма - почувствовал, что таким образом, - сознание не возникнет. Что КОГДА все эти действия выполняет МАШИНА - мышление/сознание/разум - никогда не возникнет, потому что выполняются команды, заданные извне. Более того, там хорошо показано - что даже человек (разумное существо уже изначально), оказавшись в этом эксперименте - не сможет выучить китайский язык. Не сможет, понимаете? потому что нет никакой семантической связи между выполнением команд алгоритма и смыслом, семантикой языка. Так откуда же этот смысл возьмётся у железяки? Это продолжение мысли о том, что компьютер, обыгравший Гарри Каспарова - в шахматы играть не умеет. У него нет даже такого понятия - шахматы. Он просто выполнял команды. Двоичный код.
[QUOTE]smer4 sssmeeer пишет:
[QUOTE]Не мог он так тупить, он же практически гений был. [/QUOTE]Тьюринг давно жил, в эпоху с совершенно другим пониманием когда сравнительно простая константная шифровальная машина считалась шедевром техники. современное понимание требует многих уточнений. Это как от описания машины как "повозка с колесами" выделить что должна быть коробка передач, автоматические системы, ЖПС и т.п.
[/QUOTE]
Да, согласен. Похоже на то.
Я, к сожалению, Тьюринга не читал, да и вряд ли моего знания математики будет достаточно для такого чтения.
[QUOTE]smer4 sssmeeer пишет:
[QUOTE]Калькулятор, без всяких сомнений. [/QUOTE]Ну тогда... а как мне разобраться без всяких сомнений, являетесь или не являетесь калькулятором ВЫ ?[/QUOTE]
Никак))
Солипсизм, к сожалению, неопровержим.
Но и недоказуем. Так что дело вкуса. Многие ученые, кстати, - солипсисты. Я сам недавно узнал))