Перейти к содержимому
Для публикации в этом разделе необходимо провести 50 боёв.
Sagittaris

Последний день войны

В этой теме 31 комментарий

Рекомендуемые комментарии

2 348
[NAVYS]
Участник, Коллекционер
6 663 публикации
14 323 боя

 

Каким образом вы сможете гарантировать лояльность кого-то, кто мыслит в 100500 раз быстрее вас, и мыслительные процессы которого вы воспроизвести не можете?

 

Отсутствием устройств вывода, кроме наиболее оптимального, подачу информации, через защищенный от записи носитель и питание от аккумуляторов достаточное только на время выполнения задачи.

Рассказать о публикации


Ссылка на публикацию
4 235
[ATLES]
Бета-тестер
7 834 публикации
10 575 боёв

 

Отсутствием устройств вывода, кроме наиболее оптимального, подачу информации, через защищенный от записи носитель и питание от аккумуляторов достаточное только на время выполнения задачи.

 

Это априори лишает проект всякого смысла. Де-факто это выглядит как попытка воспитать олимпийского чемпиона-бегуна, чтобы затем заковать его в ножные кандалы с ядром и разрешать бегать только по комнате 2x2 метра.

Рассказать о публикации


Ссылка на публикацию
37
[R-51]
Старший бета-тестер
45 публикаций
10 375 боёв

 

Каким образом вы сможете гарантировать лояльность кого-то, кто мыслит в 100500 раз быстрее вас, и мыслительные процессы которого вы воспроизвести не можете?

 

    Странно, а каким образом тогда Вы добились лояльности калькулятора, который считает гораздо быстрее. Или лояльна ли кому-либо шахматная программа? Операционная система компьютера, или телевизора, тоже имеет установку границ лояльности, и если кто-то себя плохо вёл, то телевизор делает вывод, что мультиков сегодня не будет? Вообще, лояльность-это субъективное человеческое понятие. В любой другой среде его не существует. У всего есть предназначение и цель. Любое искусственное создаётся для чего-то или как замена чего-то. Ни на что другое оно не способно. Если, к примеру, заранее создавать военную программу на уничтожение противника, то объяснить программе, чем Вася отличается от Пети, вы не сможете, и проект закончится на первом прототипе, который, собственно, уничтожит создателя и будет детерминирован, или сгниёт из-за потери цели существования. Но это при возможности свободного, осознанного выбора у ИИ.

   з.ы. спустя пару часов после своего первого сообщения, я немного поменял свое мнение. В ролике идет речь не о ИИ, а о простой программе, без возможности сознательного выбора. У меня лежит книга, вроде называется "Разум вселенной", в которой как раз-таки и идет речь о ИИ, который сильно опередил человека в жажде познания и просто улетел с планеты. Но прочитать эту книгу всё никак не могу. Так что, обществу с психо-депрессивным расстройством бояться ИИ не стоит. 

Рассказать о публикации


Ссылка на публикацию
4 235
[ATLES]
Бета-тестер
7 834 публикации
10 575 боёв

  Странно, а каким образом тогда Вы добились лояльности калькулятора, который считает гораздо быстрее. Или лояльна ли кому-либо шахматная программа?

 

Тем, что они не обладают способностью самообучаться и формировать собственную систему ценностей и алгоритма поведения.

Если, к примеру, заранее создавать военную программу на уничтожение противника, то объяснить программе, чем Вася отличается от Пети, вы не сможете, и проект закончится на первом прототипе, который, собственно, уничтожит создателя и будет детерминирован, или сгниёт из-за потери цели существования. Но это при возможности свободного, осознанного выбора у ИИ.

 

Собственно и.

 

Рассказать о публикации


Ссылка на публикацию
37
[R-51]
Старший бета-тестер
45 публикаций
10 375 боёв

 

Тем, что они не обладают способностью самообучаться и формировать собственную систему ценностей и алгоритма поведения.

 

    Не особо пониманию, в чем связь между самообучение и способностью мыслить в 100500раз быстрее. Ну проанализирует всю историю человечества с ключевого эволюционного момента. И какой вывод сделает? Что человек-существо глубоко несчастное и зациклено на выполнении биологических задач? Вот как Вы относитесь к людям с врождёнными пороками-физическими и душевными? Хотите всех изжить? Думаю, вряд ли.   Калекам обычно сочувствуют, заботятся или игнорируют. Так почему в процессе самообучения ИИ придет к выводу, что человечество-помеха? Или станет нянькой(если поймет, что значит быть человеком), или будет игнорировать(если ключевой идей существования станет познание). Опять же, Вы видимо не понимаете, что такое цель и что существование без цели невозможно.

з.ы. я, видимо, не особо понимаю о чем наша дискуссия, поэтому, если не уловлю хода мыслей, от комментариев откажусь.

Рассказать о публикации


Ссылка на публикацию
4 235
[ATLES]
Бета-тестер
7 834 публикации
10 575 боёв

Так почему в процессе самообучения ИИ придет к выводу, что человечество-помеха?

 

Дело не в том, что он сочтет человечество - помехой. Я пытаюсь объяснить, что мы НЕ МОЖЕМ на него положиться.

 

Допустим, наш ИскИн внезапно решит, что военная деятельность ему не нравится (или что война не имеет смысла), и он желает сочинять стихи. Что нам в таком случае делать? Пытаться его заставить силой? Тем самым мы автоматически настроим его против нас - со всеми вытекающими последствиями. Человечество как помеху он может рассматривать и не станет, но нас - конкретно сторону, создавшую его - вполне может, просто в рамках защиты своих интересов.

 

Или допустим наш ИскИн решит, проанализировав ход конфликта, что наши цели в нем - несправедливые (с его точки зрения), и наш противник должен выиграть. И построит великолепную военную кампанию... которая будет содержать "троян"; в какой-то момент наш победный шаг вдруг превратится в череду катастрофических поражений.

 

Или просто абстрагируется от реальности и начнет увлеченно изучать какие-то теоретические задачи, используя нас и оппонента как шахматную доску?

 

Ну, или ИскИн вообще сочтет, что войны - глупость, и нужно срочно вести человечество к миру железной рукой. В прямом смысле. И использует военный потенциал чтобы срежиссировать собственный приход к власти.

 

Проблема в том, что ни один из этих сценариев мы не сможем просчитать заранее. Мы не увидим симптомов. Если деятельность нашего военного ИскИна будет иметь КАКОЕ-ТО скрытое, не предусмотренное значение - мы этого не поймем, пока не станет полностью и откровенно поздно. И даже тогда, возможно, не поймем.

Изменено пользователем Dilandualb

Рассказать о публикации


Ссылка на публикацию
Участник
625 публикаций
1 515 боёв

Хороший фильм. И со смыслом. Заставляет задуматься о том, до чего могут нас довести политические амбиции и национальный шовинизм. И что худой мир - все-таки лучше "хорошей" войны. Прав был Альберт Эйнштейн: Я не знаю, каким оружием будет вестись Третья мировая война, но в Четвёртой будут использоваться камни!

 

Рассказать о публикации


Ссылка на публикацию
37
[R-51]
Старший бета-тестер
45 публикаций
10 375 боёв

 

Дело не в том, что он сочтет человечество - помехой. Я пытаюсь объяснить, что мы НЕ МОЖЕМ на него положиться.

    Теперь понятно. Вы приписываете человеческие качества некой программе, считая что возможный ИИ будет как человек, только умнее. 

Рассказать о публикации


Ссылка на публикацию
4 235
[ATLES]
Бета-тестер
7 834 публикации
10 575 боёв

    Теперь понятно. Вы приписываете человеческие качества некой программе, считая что возможный ИИ будет как человек, только умнее. 

 

А что дает нам основания их НЕ приписывать? Особенности поведения есть даже у животных.

Рассказать о публикации


Ссылка на публикацию
37
[R-51]
Старший бета-тестер
45 публикаций
10 375 боёв

 

А что дает нам основания их НЕ приписывать? Особенности поведения есть даже у животных.

  Опять же, "модель поведения"-это субъективная человеческая оценка. Ни в какой другой сфере оно не применимо. Это словосочетание даже другой языковой группе не будет понятно-не в устной, ни в письменной форме. И если ИИ будет руководствоваться человеческими параметрами и моралью, то ничего своего он не создаст, в том числе и неких своих выводов. Будет действовать по строгому алгоритму, как дети от 4лет.

  

Рассказать о публикации


Ссылка на публикацию
4 235
[ATLES]
Бета-тестер
7 834 публикации
10 575 боёв

  Опять же, "модель поведения"-это субъективная человеческая оценка. Ни в какой другой сфере оно не применимо. Это словосочетание даже другой языковой группе не будет понятно-не в устной, ни в письменной форме. И если ИИ будет руководствоваться человеческими параметрами и моралью, то ничего своего он не создаст, в том числе и неких своих выводов. Будет действовать по строгому алгоритму, как дети от 4лет.

  

 

За сколько секунд он пройдет эту фазу развития? За три?

 

Да, это антропоморфизм. Ведь ориентироваться приходится на людей - у нас прозаически нет примера иной разумной жизни.

Рассказать о публикации


Ссылка на публикацию
Гость
Эта тема закрыта для публикации новых ответов.

×