Что такое интегрированная теория информации или IIT? - Kaif

Что такое интегрированная теория информации или IIT?

Информация — могущественная вещь, но является ли она ключом к тайне сознания? Это возможно, согласно Интегрированной теории информации (IIT), впервые предложенной Джулио Тонони (Университет Висконсин-Мэдисон). Он надеялся понять, почему одни части мозга дают сознательный опыт, а другие нет, а также то, как мозг придает сенсорным данным качество, которое мы субъективно приписываем ему. Математика имеет хороший послужной список в области естественных наук, поэтому Тонони хотел видеть, что она также является ключом к сознанию (Кох, Брукс 40-1, Тонони, Барретт).

Он начал с двух центральных главных арендаторов, или аксиом, для развития своей теории. Во-первых, состояния сознания очень разнообразны, и что информация в этих состояниях связана с разными частями и не может быть разбита на части в уме. При разрыве связей, например, когда мы засыпаем или находимся под наркозом, сознание исчезает. Итак, когда разум фрагментирован, мы теряем сознание (там же).

Итак, если кто-то хочет быть сознательным, то «вы должны быть единым, интегрированным существом с большим набором высокодифференцированных состояний». Это могло бы объяснить, почему что-то вроде жесткого диска компьютера не обладает сознанием, поскольку, хотя на нем действительно много данных, они не очень хорошо интегрированы, а вместо этого представляют собой набор отдельных пакетов. Повышение уровня интеграции ведет к более высокой степени сознания. Уменьшите эти связи, и исчезнет сознание (там же).

Чтобы «обозначить размер сознательного репертуара, связанного с любой сетью причинно-взаимодействующих частей», мы используем греческую букву фи. Это способ увидеть, как система интегрирует свою информацию на основе своей структуры, соответствие «обратной связи и взаимозависимости между различными частями системы» (Кох, Брукс 42, Хоргар, Тонон).

То, как эта информация передается от одной группы к другой, используется при вычислении Фи, поэтому мы должны тщательно выбирать наш комплекс. Это потому, что нам нужно сравнивать все ненулевые значения Phi, а также все более высокие его значения по мере интегративного роста наших структур (там же).

По сути, это принцип исключения, согласно которому сознание возникает только тогда, когда мы находимся на максимальном Фи. Степень сознания, переживаемого для целого, должна быть выше, чем для любой отдельной части. Это означает, что в системе может происходить много разных процессов одновременно, но будет измеряться только один совокупный показатель Phi, и он будет максимальным, если все сделано правильно (Брукс 42, Хоргар, Тонони).

Возможно, это намекает на сознательную структуру, имеющую внутри маленькие мини-мозги, но на то, что всеохватывающая природа сознания преобладает над ними. Это объясняет, почему мы не думаем об опыте как о маленьких дискретных пакетах данных. Что-то может иметь множество способов сбора данных, но если это невозможно эффективный с этой информацией, то его Phi довольно низкий (там же).

Наш мозг сильно зависит от информации, которую он получает, и поэтому качество сознания будет основываться на том, как информация связана с элементами нашего комплекса и насколько эффективна указанная информация. Фактический сознательный опыт будет отражать это (там же).

Джулио Тонони
Джулио ТонониYouTube

Принесите математику

Таким образом, сознание должно каким-то образом учитывать эту интегрирующую способность в самом большом наборе независимых информационных состояний. Вы можете просто утверждать, что энтропия обеспечит максимально допустимые состояния, но она не учитывает интеграцию информации, а только количество доступных состояний. Вместо этого нам нужно исследовать количество независимых состояний некоторой базовой единицы, для которой нельзя интегрировать информацию. Затем мы могли бы построить из этих элементов что-то, что могло бы интегрировать информацию (Тонони).

Для наших целей нейронные группировки могли бы быть базовым состоянием, при этом различные их запуски придавали бы нашим состояниям разные значения. Разбив группы нейронов на подмножества, мы можем наметить отношения между элементами и посмотреть, в какой степени информация интегрирована во все причинно связанные подмножества (там же).

Для этого мы делим подмножество на две пары A и B, находим все ответы B, которые могут исходить от входов A, и находим все возможные состояния, генерируемые A, и насколько разнообразны эти ответы. Просто, верно? Ну надо будет испытать все возможные разводы(Там же).

Давайте углубимся в некоторые определения, чтобы прояснить этот процесс. Обозначим АНмакс как «максимальная энтропия выходов из A» и используя случайный шум в качестве срабатывания из A, мы можем найти последующую энтропию B на основе A. EI (A -> B) — это эффективная информация между A и B, и для измерения то заметим, что EI(A->B) = MI(AНмакс;B), где MI(A;B) будет взаимной информацией. Поэтому MI(AНмакс;B), будет «мерой энтропии или информации, разделяемой между источником A и целью B» (там же).

В нашем случае, поскольку A будет независимыми шумовыми данными, ничто причинно не существует при переходе от B к A, только от A к B. Также обратите внимание, что EI(A->B) указывает на «все возможные эффекты A на B» и не обязательно отражает то, что произошло бы, если бы все работало в нормальных условиях. Речь идет о потенциальных состояниях как о максимальной границе, где EI(A->B) «ограничен AНмакс или БНмакс, в зависимости от того, что меньше». Если связи между A и B «сильны и специализированы», то EI (A-> B) будет высоким, потому что наш вход A может дать большое разнообразие, чтобы дать нам наши результаты B. Но если влияние А на В незначительно или отсутствует, то EI(A->B) будет небольшим (там же).

Проделайте тот же процесс с перевернутыми B и A, и вы можете получить двудольное разбиение EI (A <-> B) = EI (A-> B) + EI (B-> A). Это двустороннее взаимодействие является ключом к пониманию уровня интеграции. между элементы. Если EI(A<->B) = 0, то мы не разделили на самые дальние подмножества, чтобы получить истинную интегративную картину, потому что это подразумевало бы, что все ссылки туда и обратно используют информацию одинаковым образом (что означает, что мы не достаточно хорошо специализировали наше разбиение). Если мы ищем такое разбиение нашего множества на A и B, что EI(A<->B) при наименьшем ненулевом значении, мы нашли интегрирующую способность для нашего множества ( Там же).

Это ведет к MIBA <-> B нашего подмножества в качестве минимального информационного двураздела и «является двуразделом, для которого нормированная эффективная информация достигает минимума, соответствующего min {EI(A <-> B/HМаксимум(A <-> B)}, так что либо эффективная информация мала, либо наибольшее количество энтропии велико, мы хотим иметь минимальный MIB (там же).

Наконец, мы пришли к формальному определению Phi(S) как интеграции информации, и «это просто (ненормализованное) значение EI (A <-> B) для минимального информационного двураздела» или Phi(S) = ЭИ(MIBА <-> Б). Найдя наименьшее количество информации, которое можно интегрировать по раздвоенным разделам, вы сможете оценить сложность системы и, надеюсь, сделать выводы о сознании (там же).

Но как найти фактические подмножества, объединяющие информацию? И сколько информации? Чтобы найти это, «мы рассматриваем каждое возможное подмножество S из m элементов из n элементов системы, начиная с подмножеств m=2 и заканчивая подмножеством, соответствующим всей системе m=n». Мы находим Phi для каждого из них, а затем ранжируем их на основе этого значения. Наконец, мы избавляемся от любых подмножеств, включенных в более крупные подмножества с более высокими значениями Phi (там же).

Остаются комплексы, или «отдельные сущности, способные интегрировать информацию». Если комплексов много, мы называем тот, у которого наибольшее значение Phi, основным комплексом. Вещи за пределами комплекса, которые подключаются к нему, известны как входные и выходные порты. Кроме того, элементы могут принадлежать многим комплексам, которые сами по себе могут перекрываться и тем не менее оставаться различными по своей интегративной способности (там же).

Тайны раскрыты

Если ИИТ хочет добиться какого-либо прогресса в принятии, прежде всего необходимо объяснить некоторые загадочные особенности мозга и предложить некоторые потенциальные решения. Одна из них заключается в том, почему мозжечок имеет больше нейронов, чем кора головного мозга, но не имеет решающего значения для сознания. Количество нейронов должно равняться уровням сознания, верно? (Кох, Брукс, 42, Тонони)

Что ж, IIT покажет, что нейроны в мозжечке не объединены в единую сеть и поэтому будут иметь низкое значение Phi, что приводит к низким уровням сознания. Области мозга с небольшим количеством сильно сгруппированных нейронов должны, если они повреждены, сильно влиять на сознание, и исследования показали, что это правда (там же).

Возьмем, к примеру, таламокортикальную сеть. Дефекты и повреждения таламокортикальных областей препятствуют сознанию, несмотря на то, что большая сознательная активность была обнаружена в нескольких областях коры. Это связано с тем, что таламокортикальная область мозга хорошо спроектирована, чтобы быть комплексом IIT (Tononi).

Что касается интегрированной информации, то эта область мозга «состоит из большого количества функционально специализированных элементов, активирующихся в различных обстоятельствах» и «связанных обширной сетью внутри- и межобластных связей, которые обеспечивают быстрое и эффективное взаимодействие между собой». и между районами». Это означает, что группы нейронов в этой области мозга настроены на то, чтобы создавать шансы для удаленных, косвенно связанных областей (там же).

А как насчет снов? Их часто трудно запомнить, но они задействуют наши чувства, сопоставляя активность мозга, как если бы мы бодрствовали. Но мозговая активность имеет «медленные, большие и высоко синхронизированные волны» во время нашего отдыха, поэтому информация разбивается на части, когда она проходит через мозг, и поэтому плохо интегрируется (Кох, Брукс 43, Тонони).

Это также может быть связано с тем, как во время анестезии мы теряем сознание. Хотя это также связано с отсутствием интегрированной информации из-за сбоев, в данном случае это связано с уменьшением паттерна возбуждения таламуса и отключением средней и теменной областей коры. Все это приводит к нарушениям «крупномасштабной функциональной интеграции в кортико-таламическом комплексе» (там же).

что-такое-интегрированная-информационная-теория-или-ит
Асинсис

Панпсихизм?

При всех этих разговорах о Фи было отмечено, как существуют разные системы разного уровня интеграции. Это означает, что некоторые элементы нашей жизни более сознательны, чем мы думали изначально. Животные теперь будут иметь разные уровни сознания… но такими же могут быть и такие маленькие существа, как субатомные частицы (Кох, Брукс 40, Хоргар, Азарян, Тонони, Барретт).

Сознание может быть не свойством «все или ничего», а оцениваться на основе присутствующего Фи. Это можно рассматривать как слабость теории… если только вы не согласны с панпсихизмом или идеей о том, что сознание является фундаментальным элементом реальности. Форма на самом деле не так важна, как сама информация, которая содержится и интегрирована (там же).

Причиной того, что в мире не так много осознанных конструктов, была бы способность информации интегрироваться в систему. В этом отношении важна форма, но она ничего не значит, если содержание бессмысленно. Все дело в «потенциальной дифференциации реакции системы на все возможные возмущения, но, несомненно, действительный(Там же).

Горизонты будущего

ИИТ предлагает множество решений давних конфликтов в науке и философии, но ему все еще нужно работать над решением других вопросов. Включает ли естественный отбор развитие существ с более высоким Фи? Причина в том, что более высокий интеллект допускает эволюционно выгодные соображения, или на самом деле это так же просто, как выживание наиболее приспособленных? (Кох, Брукс 43, Азарян, Баррет).

Еще одна проблема — практичность ИИТ, поскольку, хотя теоретически это многообещающе, на практике это почти невозможно. В настоящее время мы не можем вычислить Phi за пределами очень простые системы, а тем более сложные формы жизни. И еще более сложной задачей является включение бессознательных процессов в ИИТ и определение их места. И самое главное, Фи — это всего лишь инструмент для измерения сознания, но действительно ли он объясняет его? Предлагает ли он, как эта информация становится опытом? (Там же)

Полевая интегрированная информационная гипотеза

Возможным решением этих проблем является уточнение IIT с использованием общих полевых теорий физики и ребрендинг как гипотеза интегрированной информации поля или FIIH. Предложенный Адамом Барреттом, FIIH предполагает, что «сознание возникает из информации, присущей фундаментальным полям, и предполагает, что для продвижения ИИТ вперед необходима мера внутренней информации, применимая к конфигурации непрерывного поля» (Барретт).

Это обоснование вытекает из поля или «абстрактной математической сущности, которая сопоставляет математический объект каждой точке пространства и времени» как основного строительного блока реальности. Каждая частица действует под действием поля, а фундаментальные частицы имеют свое особое поле. Хотя существуют частицы материи и частицы, переносящие силы, у каждой из них есть ассоциативные поля, и «все силы природы могут быть описаны теориями поля, которые моделируют взаимодействие между полями». Поля, поля, поля! Итак, если мы хотим сделать сознание фундаментальным свойством, ему нужна теория поля или некая квантовая частица. Судя по электрической активности мозга, эти поля могли бы стать хорошей отправной точкой (там же).

Но могут ли за это отвечать другие поля? И зачем нам вообще задаваться вопросом, возможно ли это? Ну, в какой-то момент во Вселенной все поля были одним целым. Если сознание является фундаментальным, оно должно было быть с самого начала (Там же).

Но, скорее всего, сознание возникло из ЭМ «по причинам, связанным с физикой и химией электромагнитного поля по сравнению с другими полями». Сильные и слабые ядерные силы действуют только очень небольшие расстояния в атомном масштабе, для которых у нас нет текущих доказательств сознательной активности (там же).

Гравитационные поля также удаляются из-за отсутствия сложной структуры, необходимой для работы ИИТ. Но электромагнитные поля обладают крупномасштабными свойствами, которые делают их подходящими для наших нужд, к тому же они могут быть «как отталкивающими, так и привлекательными, и это принципиально то, что делает возможной нетривиальную химию и биологию» (там же).

Как только мы знаем, что работаем с электромагнитными полями, Барретт модернизирует ИИТ, превращая его в «сознание, возникающее из информации, присущей конфигурации фундаментального поля». Если указанное поле имеет много этой внутренней интегрированной информации, то «математически с ним связана многомерная информационная структура», которая на основе своих геометрических особенностей определяет «содержание сознания» (Там же).

Чтобы соответствовать теории относительности, нам нужно, чтобы наши поля не зависели от систем отсчета, поэтому обычная Фи не годится. Это потому, что он основан на дискретных элементах в системе и нет на сплошных полях. Вместо этого мы ищем формулу, с помощью которой «теорию понятий можно было бы универсально применять для исследования внутренней информации в любом участке пространства-времени, не требуя от наблюдателя какого-либо моделирования» (там же).

Следовательно, дискретность IIT не подходит, потому что мы всегда можем увеличить масштаб и получить меньший масштаб (к счастью, когда в масштабе Планка нет сложности применения IIT, поэтому непрерывный характер применим ко всем соответствующим масштабам). Это не означает, что мы не можем использовать дискретность, чтобы помочь себе. Мы должны, используя дискретные наблюдения, построить аппроксимацию непрерывного решения. (Там же).

Благодаря этому полевому подходу мы можем соединить сознание с физикой, потенциально открывая дверь для новых, смелых неизвестных…

Добавить комментарий