3rd year rōnin
Для меня хорошее представление о работе человеческого мозга дает модель искусственного интеллекта (ИИ) боевого беспилотника, описанного в повести Виктора Пелевина "Зенитные кодексы Аль-Эфесби". Эта модель состоит из двух нейросетей. Первая выделяет в изображении с камер беспилотника образцы, соответствующие потенциальным целям (в повести — афганским террористам) и дает команду открыть огонь. Надо понимать, как работает нейросеть: в ее системе нет команд, условий и циклов, как в обычном программном алгоритме. Это как бы многослойный фильтр из переменных, который настраивается методом проб и ошибок на огромной учебной выборке. Т.о., нейросеть не подразумевает анализ в обычном понимании этого слова, в ней нет логических правил, нет возможности понять, почему в результате обучения была допущена та или иная ошибка. Есть тренировка, натаскивание и в результате — некий аналог интуитивного понимания на уровне "а руки-то помнят!". Поэтому вторая система беспилотника как раз отвечает за анализ ошибок и обоснование сделанного выбора, как логическое, так и моральное. Она тоже нейросетевая, но при этом максимально точно иммитирует характерную для человека рефлексию — по сюжету повести ее натаскивали на политических ток-шоу. Поскольку это всё же программный алгоритм анализ ситуации может осуществляться с огромной скоростью, с подробным обоснованием буквально каждого выстрела скорострельного пулемета, что для СМИ, изучающих эти материалы, просочившиеся через WikiLeaks, даже несколько избыточно. Соль в том, что две описанные системы никак не связаны. Одна настраивается, выбирает цели и осуществляет их уничтожение, а другая — проводит детальный анализ действий первой системы... который ни на что не влияет, хотя и поглощает огромный вычислительный ресурс. Вторая система нужна только для того, чтобы оправдать выбор первой, как разумный и морально оправданный. И всё.
НФ Виктора Пелевина всегда больше чем НФ, да и не НФ вовсе, если быть честным. Я не сомневаюсь, что эта модель целиком и полностью про мышление человека, да... и меня в том числе. Свой выбор мы делаем на основе обучающей выборки. Точка. Это могут быть разные выборки: "Наша Родина — СССР", "Воины света, воины добра", "White Power", "Святая Русь" и пр. Не хочу никого обидеть, название не имеет особого значения, собственно оно само по себе уже относится ко второй системе и поэтому под одним названием могут, на самом деле, оказаться совершенно разные настройкие нейросети, осуществляющей выбор (что потом приведет к забавным противоречиям). Насколько прокачана критичность мышления и моральные нормы в рамках второй системы не имеет никакого значения. Она не влияет на выбор, выбор осуществляется до ее запуска. И даже, если "выстрел", т.е. осуществление выбора следует позже — анализ не может его отменить, он просто не подключен к сервоприводам. И поэтому нет никакого смысла переубеждать других на уровне логики. Кроме одного, описанного в повести. Системы всё же косвенно связаны через вычислительные ресурсы ИИ беспилотника. И если систему анализа перегрузить — ресурса не хватит даже на элементарное управление полетом, и беспилотник грохнется на землю. Но для этого не нужны аргументы... для этого нужна провокация, эффективный троллинг, способный зациклить систему.
Всё это очень грустно, страшно и безысходно. Всё это в основном описывает жизнь человека, его выбор, его волю... его цену. И меня тоже. Все это в основном осознается человеком. В 2014-15 мне на мои аргументы, нередко глупые, зачастую отвечали "ты смотришь не те каналы". Т.е., советовали переобучить систему принятия решений на основе другой выборки, чтобы паттерн "свой-чужой" хоть сколько-нибудь соответствовал принятой в моем кругу норме.
Меня интересует то, что лежит за пределами этого "в основном". Мне кажется, если человек хоть немного больше чем животное, это единственное, что имеет смысл. А пока я чувствую себя пикирующим беспилотником
НФ Виктора Пелевина всегда больше чем НФ, да и не НФ вовсе, если быть честным. Я не сомневаюсь, что эта модель целиком и полностью про мышление человека, да... и меня в том числе. Свой выбор мы делаем на основе обучающей выборки. Точка. Это могут быть разные выборки: "Наша Родина — СССР", "Воины света, воины добра", "White Power", "Святая Русь" и пр. Не хочу никого обидеть, название не имеет особого значения, собственно оно само по себе уже относится ко второй системе и поэтому под одним названием могут, на самом деле, оказаться совершенно разные настройкие нейросети, осуществляющей выбор (что потом приведет к забавным противоречиям). Насколько прокачана критичность мышления и моральные нормы в рамках второй системы не имеет никакого значения. Она не влияет на выбор, выбор осуществляется до ее запуска. И даже, если "выстрел", т.е. осуществление выбора следует позже — анализ не может его отменить, он просто не подключен к сервоприводам. И поэтому нет никакого смысла переубеждать других на уровне логики. Кроме одного, описанного в повести. Системы всё же косвенно связаны через вычислительные ресурсы ИИ беспилотника. И если систему анализа перегрузить — ресурса не хватит даже на элементарное управление полетом, и беспилотник грохнется на землю. Но для этого не нужны аргументы... для этого нужна провокация, эффективный троллинг, способный зациклить систему.
Всё это очень грустно, страшно и безысходно. Всё это в основном описывает жизнь человека, его выбор, его волю... его цену. И меня тоже. Все это в основном осознается человеком. В 2014-15 мне на мои аргументы, нередко глупые, зачастую отвечали "ты смотришь не те каналы". Т.е., советовали переобучить систему принятия решений на основе другой выборки, чтобы паттерн "свой-чужой" хоть сколько-нибудь соответствовал принятой в моем кругу норме.
Меня интересует то, что лежит за пределами этого "в основном". Мне кажется, если человек хоть немного больше чем животное, это единственное, что имеет смысл. А пока я чувствую себя пикирующим беспилотником

А когда-то я тут с друзьями безвылазно сидел...
я вот думаю, на какой из площадок больший движ
Я читал Уоттса (Эхопраксию тоже), мне не очень понравилось. Во всяком случае, примечания показались интереснее чем основной текст.
А Пелевин точно про людей писал. Для беспилотников эту проблему можно было легко решить установив два независимых процессора (или даже программно разделив систему на две виртуальные машины).