Logo GenDocs.ru

Поиск по сайту:  


Загрузка...

Ответы по современным проблемам информатики для аспирантов - файл Часть2 - современные проблемы информатики.doc


Ответы по современным проблемам информатики для аспирантов
скачать (66.6 kb.)

Доступные файлы (1):

Часть2 - современные проблемы информатики.doc303kb.18.05.2010 16:08скачать

содержание
Загрузка...

Часть2 - современные проблемы информатики.doc

  1   2   3
Реклама MarketGid:
Загрузка...
Часть 2

Философские проблемы информатики


(Вопросы для специальностей 05.13.13, 05.13.15, 05.13.17)


  1. Понятие «информатика». Место информатики как науки в ряду других наук.

  2. Понятие «информация».

  3. Теория информации К. Шеннона.

  4. Кибернетика Н. Винера, У. Мак-Каллока, А. Тьюринга, У. Питтса, Дж. Фон Неймана и др.

  5. Информатика в контексте постнеклассической науки.

  6. Моделирование и вычислительный эксперимент как интеллектуальное ядро информатики.

  7. Синергетический подход в информатике.

  8. Общая теория систем Л. фон Берталанфи.

  9. Синергетический подход в работах Г. Хакена и Д.С. Чернавского.

  10. Информатика в контексте представлений о развивающихся человекомерных системах.

  11. Проблема реальности в информатике.

  12. Виртуальная реальность.

  13. Моделирование и вычислительный эксперимент как интеллектуальное ядро информатики.

  14. Концепция информационной безопасности: гуманитарная составляющая.

  15. Понятие информационно-коммуникативной реальности как междисциплинарный интегративный концепт.

  16. Понятие киберпространства Интернет и его философское значение.

  17. Феномен зависимости от Интернета.

  18. Интернет как инструмент новых социальных технологий.

  19. Интернет как глобальная среда непрерывного образования.

  20. Проблема искусственного интеллекта и ее эволюция.

  21. Ведущие тенденции в современном искусственном интеллекте.

  22. Синергетический искусственный интеллект.

  23. Компьютерная этика, инженерия знаний проблемы интеллектуальной собственности.

  24. Технологический подход к исследованию знания.

  25. Социальная информатика как новая междисциплинарная область исследований.

  26. Концепция информационного общества: от П. Сорокина до Э. Кастельса.

  27. Сетевое общество и задачи социальной информатики.

  28. Проблема личности в информационном обществе.

  29. Современные психотехнологии и психотерапевтические практики консультирования как составная часть современной социогуманитарной информатики.

  30. Правовые проблемы информатизации. Информационное право.





  1. ^ Понятие «информатика». Место информатики как науки в ряду других наук.

Информа́тика (ср. нем. Informatik, фр. Informatique, англ. computer science — компьютерная наука — в США, англ. computing science — вычислительная наука — в Великобритании) — наука о способах получения, накоплении, хранении, преобразовании, передаче и использовании информации. Она включает дисциплины, так или иначе относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования.

^ Термин информатика возник в 60-х годах во Франции для названия области, занимающейся автоматизированной переработкой информации, как слияние французских слов information и automatique (F. Dreyfus, 1972).

^ Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект), каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.

Из научно-технических разработок по теории информации родилась такая специализированная научная дисциплина, как информатика (комбинация из слов «информация» и «автоматика») - область изучения научно-технической информации, ориентирующаяся на автоматизированную обработку данных, массивов знаний производственно-технического и социального назначения с использованием вычислительной техники, средств связи и математико-программного обеспечения.

После появления компьютерной техники возникла и начала развиваться новая научная дисциплина «информатика», связанная с разработкой и исследованием методов применения компьютеров в различных областях человеческой деятельности. Искусственный интеллект — один из разделов информатики, в котором изучаются возможности создания алгоритмов и программ для решения различных интеллектуальных задач, решаемых человеческим мозгом.

Однако системы информатики, использующие формальную логику в своей основе, не воссоздают механизмы мозга, а лишь имитирует результаты его функционирования. Это обстоятельство приводит к тому, что такие уникальные свойства мозга, как обучение, распознавание, обобщение, формирование понятий, самопрограммирование и т.п., все еще трудновоспроизводимы на современных компьютерах. Очевидно, что это именно те свойства, которые отображаются диалектической логикой и в полной мере без ее использования не могут быть реализованы.


  1. ^ Понятие «информация».

Этимологически «информация» (лат. informatio - разъяснение, изложение, осведомление) - термин обыденного языка, относящийся к познавательно-коммуникативной сфере человеческой деятельности и обозначающий совокупность сведений о каких-либо событиях или фактах. Таким образом, информация в обыденном смысле есть прежде всего определенное содержание, однако именно содержательная сторона информации остается до настоящего времени наиболее неясной.

В стремлении дать определение понятию информации ученые прошли за последние 50 лет эволюцию от формальных (преимущественно теоретико-математических) дефиниций того, что собой представляет и как может измеряться количество информации, до новейших попыток построения универсальных концепций информационного общества, универсального метаязыка, всеобщей метатеории и т. п. Парадоксальность многих из этих концепций заключается в том, что само понятие информации в них не определяется, а принимается на интуитивном уровне. Отсюда понятен профессиональный интерес к осмыслению феномена информации среди философов.

Разработки в области теории информации содействовали сдвигам в методологии научного познания, которые нашли выражение в смещении акцентов от вещи к отношению, от поисков универсальной первоосновы мира к признанию разнообразия в качестве базового принципа научного исследования. Именно эти категории философии - отношение и разнообразие - занимают сегодня центральное место в попытках определить природу информационных явлений. Вместе с тем многочисленные исследования феномена информации обнаружили его связь с организацией, системностью, упорядоченностью, структурой, а также с функциональными состояниями и процессами в сложных системах управления. И тогда информации предстает как функциональное свойство процессов управления, неотделимое от последних, а теория информации - как раздел кибернетики. Из научно-технических разработок по теории информации родилась такая специализированная научная дисциплина, как информатика (комбинация из слов «информация» и «автоматика») - область изучения научно-технической информации, ориентирующаяся на автоматизированную обработку данных, массивов знаний производственно-технического и социального назначения с использованием вычислительной техники, средств связи и математико-программного обеспечения.

В науку это понятие введено в 1928 г. американским ученым ^ Р. Хартли для обозначения количественного измерения сведений, распространяемых по техническим каналам связи (безотносительно к содержанию этих сведений). Последние, ввиду ограниченных возможностей фиксации и передачи устной речи, преобразуются источником информации сначала в форму языкового (знакового) сообщения, а затем передатчиком во вторичную, удобную для трансляции по техническим каналам связи форму сигнала, что предполагает операцию кодирования с последующим декодированием на стороне приемника. Тем самым получатель имеет на выходе приемника сообщение, которое при минимизации помех («шума») представляет собой, с определенной степенью соответствия, копию сообщения на стороне источника. Следует иметь в виду, что доведение информации до адресата (получателя), если эта информации не является дезинформацией, всегда приводит к уменьшению неопределенности в знаниях и действиях последнего. Хартли предложил логарифм при основании два для вычисления количества информации как меры неопределенности, устраняемой в результате получения информации у того, кто эту информации получает. Так возникла единица информации - бит, или «одно из двух»; либо «да», либо «нет» по отношению к вопросу, фиксирующему неопределенность знаний или сведений получателя о чем-либо его интересующем.

Освоение общих свойств информации разных иерархических уровней, дает возможность понять природу информации - природу взаимоотношений между информацией и объектами материального мира и убедиться, что информация становится активной, лишь фиксируясь на материальных носителях.


  1. Теория информации К. Шеннона.

В 40-е гг. прошлого столетия американский ученый^ К. Шенно, специализировавшийся в вопросах пропускной способности каналов связи и кодирования сообщений, придал мере количества информации более универсальную форму: количество информации стало пониматься как величина энтропии, на которую уменьшается общая энтропия системы в результате получения этой системой информации. Формула эта выражает энтропию через сумму целого ряда вероятностей, помноженных на их логарифмы, и относится только к энтропии (неопределенности) сообщения.

Энтропия – количественная мера неопределённости, снимаемой при получении ниформации.

Иными словами, информативность сообщения обратно пропорциональна его очевидности, предсказуемости, вероятности: чем менее предсказуемо, неочевидно и маловероятно сообщение, тем больше информации оно несет для получателя. Совершенно очевидное (с вероятностью, равной 1) сообщение столь же пусто, сколь полное отсутствие такового (т. е. сообщения, вероятность которого заведомо равна 0). Оба они, согласно допущению Шеннона, неинформативны, не несут получателю никакой информации. По ряду причин, относящихся к математике и связанных с удобствами формализации, энтропия сообщения описывается Шенноном как функция распределения случайных величин.

Статья «Математическая теория связи», была опубликована в 1948 году и сделала Клода Шеннона всемирно известным. В ней Шеннон изложил свои идеи, ставшие впоследствии основой современных теорий и техник обработки передачи и хранения информации. Результаты его работ в области передачи информации по каналам связи запустили по всему миру огромное число исследований. Шеннон обобщил идеи Хартли и ввел понятие информации, содержащейся в передаваемых сообщениях. В качестве меры информации передаваемого сообщения М, Хартли предложил использовать логарифмическую функцию . Шеннон первым начал рассматривать передаваемые сообщения и шумы в каналах связи с точки зрения статистики, рассматривая как конечные множества сообщений, так и непрерывные множества сообщений.

Развитая Шенноном теория информации помогла решить главные проблемы, связанные с передачей сообщений, а именно: устранить избыточность передаваемых сообщений, произвести кодирование и передачу сообщений по каналам связи с шумами.

Решение проблемы избыточности подлежащего передаче сообщения позволяет максимально эффективно использовать канал связи. К примеру, современные повсеместно используемые методы снижения избыточности в системах телевизионного вещания на сегодняшний день позволяют передавать до шести цифровых программ коммерческого телевидения, в полосе частот, которую занимает обычный сигнал аналогового телевидения.

Решение проблемы передачи сообщения по каналам связи с шумами при заданном соотношении мощности полезного сигнала к мощности сигнала помехи в месте приема, позволяет передавать по каналу связи сообщения со сколь угодно малой вероятностью ошибочной передачи сообщения. Также, это отношение определяет пропускную способность канала. Это обеспечивается применением кодов, устойчивых к помехам, при этом скорость передачи сообщений по данному каналу должна быть ниже его пропускной способности.


  1. ^ Кибернетика Н. Винера, У. Мак-Каллока, А. Тьюринга, У. Питтса, Дж. Фон Неймана и др.

Английский математик и логик A.M. Тьюринг предложил абстрактную вычислительную машину, копирующую работу человеческого мозга при выполнении им некоторого алгоритмического процесса. Такая машина была названа «машиной Тьюринга». Развивая идеи своих предшественников, математик и логик Джон фон Нейман сформулировал принципы построения ЭВМ, материализующих абстрактную машину А. Тьюринга. Эти принципы лежат в основе большинства современных компьютеров, а соответствующая им архитектура называется классической, или архитектурой фон Неймана.

Крупный вклад в развитие описываемых диалектической логикой развивающихся динамических систем внес американский математик Н. Винер, который изложил основные принципы науки об управлении кибернетики. Основная его идея заключалась в постулировании инвариантности законов управления и связи в машине, организме, обществе. Иными словами, система управления может быть отделена от своего материального носителя и изучаться абстрактно, как форма физического тела в геометрии. Такое изучение приводит к выводу, что в основе любой кибернетической системы лежит получение, переработка и передача информации. Поэтому, с точки зрения кибернетики, информационные процессы мозга могут быть отделены от своего носителя и реализованы в некоторой технической среде.

Американские ученые - нейрофизиолог У. Маккалок и математик У. Питтс показали, что в качестве такой среды целесообразно использовать искусственные нейронные сети. Они представили нейрон в виде бинарных пороговых преобразователей, предложили конструкцию нейросети из таких преобразователей и показали, что она может выполнять любые математические и логические операции. Кроме того, они предположили, что искусственные нейронные сети могут обучаться распознаванию образов, обобщению и т.п., т.е. способны воспроизводить те свойства мозга, которыми не обладают современные компьютеры. Нейронные сети, разработанные на основе результатов исследований Маккалока и Питтса легли в основу нового класса вычислительных машин, названных нейрокомпьютерами, основная задача которых - воспроизведение процессов, описываемых диалектической логикой, которые легли в основу бионического подхода к созданию систем с элементами искусственного интеллекта. У современных компьютерных технологий имеются очевидные пределы миниатюризации, поэтому ожидается, что новый решительный прорыв станет возможен только при переходе на молекулярный уровень. В результате могли бы появиться компьютеры, намного меньшие тех, которые производятся по ныне существующим технологиям. Квантовые вычисления и молекулярные вычисления - вот два недавних проявления этой общей идеи.


  1. ^ Информатика в контексте постнеклассической науки.

Для общей теории информации в рамках синергетики важно, что постнеклассическая наука вместо поиска причинных отношений стала апеллировать к таким факторам, как симметрия, упорядоченность и др.; описание объектов, основывавшееся прежде на модальности долженствования, стало осуществляться теперь в модальности возможности, когда выбор одного из разрешенных состояний не предписывается необходимостью.

Для того чтобы убедиться в адекватности феномена информации миру процессов, изучаемых постнеклассической наукой, следует перечислить ее основные концептуальные положения на основе как конкретно-научных результатов (Николис, Пригожий, Хакен, Климонтович, Курдюмов), так и философских обобщений (Пригожин-Стенгерс, Курдюмов-Князева, Аршинов и Свирский, Сачков, Степин и др.).

Первое. Наука прошлого столетия оперировала обратимыми (классическая механика) и необратимыми (равновесная термодинамика) процессами. Наряду с этим в природе реализуются необратимые процессы, приводящие к созданию пространственно-временных (диссипативных) структур. Такая необратимость играет существенную конструктивную роль, из нее следует различие между прошлым и будущим («стрела времени»), обусловленное не особенностями нашего описания, а самой природой вещей.

Первое концептуальное положение постнеклассической науки имеет прямое отношение к процессу генерации информации, являющемуся типично необратимым, поскольку генерация это выбор, и, коль скоро он сделан, происходит событие, разделяющее прошлое и будущее. «Способность к сотворению, то есть рождению между прошлым и будущим через становление, является непреложным фундаментальным фактом» (А. Уайтхед). Можно заключить, что если бы не различие между прошлым и будущим, игнорируемое традиционной наукой, информация не могла бы возникать. Это еще раз подчеркивает: место феномена информации только в постнеклассической картине мира.

Второе. Неравновесные состояния открытых систем весьма конструктивны благодаря их способности к самоорганизации, т. е. к «пороговому» локальному самоупорядочению с образованием диссипативных структур. Такое поведение - необходимый элемент процесса рецепции информации, т. е. второе концептуальное положение, как и первое, имеет отношение к информации, так как рецепция есть процесс неравновесный; Кроме того, поскольку рецепция информации означает возникновение определенной упорядоченности в воспринимающей системе, это не только неравновесная, но далекая от равновесия система. Рецепторная система, следовательно, есть система диссипативная.

Третье. Важнейшим состоянием синергетической системы является хаос, или, точнее, хаотическая динамика. «Связанная с разупорядоченностыо неустойчивость движения позволяет системе непрерывно прощупывать собственное пространство состояний, создавая тем самым информацию» (И. Пригожий).

Итак, показана неформальная связь информации с идеями теории самоорганизации, представляющей собой основу постнеклассической науки, когда человек представляет себе мир, интерпретируемый этой наукой, как мир не только траекторий, но и процессов.


  1. ^ Моделирование и вычислительный эксперимент как интеллектуальное ядро информатики.

Модели́рование — исследование объектов познания на их моделях; построение и изучение моделей реально существующих предметов, процессов или явлений с целью получения объяснений этих явлений, а также для предсказания явлений, интересующих исследователя.

Практическим средством моделирования является вычислительный эксперимент, который позволяет не только изучать соответствующие объекты и процессы, но и с большой степенью достоверности предсказывать их поведение, осуществлять прогнозирование событий.

Модель - объект произвольной природы, который отражает главные, с точки зрения решаемой задачи, свойства объекта моделирования.

^ Главные функции модели - упрощение получения информации о свойствах объекта; передача информации и знаний; управление и оптимизация объектами и процессами; прогнозирование; диагностика;

В силу многозначности понятия «модель» в науке и технике не существует единой классификации видов моделирования: классификацию можно проводить по характеру моделей, по характеру моделируемых объектов, по сферам приложения моделирования (в технике, физических науках, кибернетике и т. д.)

Процесс моделирования включает три элемента:

  • субъект (исследователь),

  • объект исследования,

  • модель, определяющую (отражающую) отношения познающего субъекта и познаваемого объекта.

Первый этап построения модели предполагает наличие некоторых знаний об объекте-оригинале. Познавательные возможности модели обусловливаются тем, что модель отображает (воспроизводит, имитирует) какие-либо существенные черты объекта-оригинала. Вопрос о необходимой и достаточной мере сходства оригинала и модели требует конкретного анализа. Очевидно, модель утрачивает свой смысл как в случае тождества с оригиналом (тогда она перестает быть моделью), так и в случае чрезмерного во всех существенных отношениях отличия от оригинала. Таким образом, изучение одних сторон моделируемого объекта осуществляется ценой отказа от исследования других сторон. Поэтому любая модель замещает оригинал лишь в строго ограниченном смысле. Из этого следует, что для одного объекта может быть построено несколько «специализированных» моделей, концентрирующих внимание на определенных сторонах исследуемого объекта или же характеризующих объект с разной степенью детализации.

^ На втором этапе модель выступает как самостоятельный объект исследования. Одной из форм такого исследования является проведение «модельных» экспериментов, при которых сознательно изменяются условия функционирования модели и систематизируются данные о ее «поведении». Конечным результатом этого этапа является множество (совокупность) знаний о модели.

^ На третьем этапе осуществляется перенос знаний с модели на оригиналформирование множества знаний. Одновременно происходит переход с «языка» модели на «язык» оригинала. Процесс переноса знаний проводится по определенным правилам. Знания о модели должны быть скорректированы с учетом тех свойств объекта-оригинала, которые не нашли отражения или были изменены при построении модели.

^ Четвертый этаппрактическая проверка получаемых с помощью моделей знаний и их использование для построения обобщающей теории объекта, его преобразования или управления им.

Моделирование — циклический процесс. Это означает, что за первым четырехэтапным циклом может последовать второй, третий и т.д. При этом знания об исследуемом объекте расширяются и уточняются, а исходная модель постепенно совершенствуется. Недостатки, обнаруженные после первого цикла моделирования, обусловленные малым знанием объекта или ошибками в построении модели, можно исправить в последующих циклах.


  1. ^ Синергетический подход в информатике.

Синергетика - современная теория самоорганизации в неживых и живых системах, главная особенность которых - нелинейность и открытость. Синергетика - это мостик между пониманием живой и неживой природы.

Синергетика (синергия - гр. synergeia - сотрудничество, содружество) - междисциплинарное направление научных исследований, в рамках которого изучаются процессы самоорганизации и самодезорганизации, процессы перехода от хаоса к порядку и обратно в открытых нелинейных средах самой различной природы. Синергетика - название не случайное, а является визитной карточкой, неким символом, объединяющим основные черты заявленного взгляда на мир.

Главная идея синергетики - это идея о принципиальной возможности спонтанного возникновения порядка и организации из беспорядка и хаоса в результате процесса самоорганизации. Такая способность представляется как результат борьбы и сотрудничества двух противоположных начал: механизма возникновения структур (фактор локализации процессов) и самопроизвольного распада, диффузии, рассеивания (размывающий фактор)

Если дать краткую характеристику синергетики, как новой научной парадигме, то это три ключевые идеи:

1) самоорганизация,

2) открытые системы,

3) нелинейность.

Информационный и синергетический подходы можно рассматривать как развитие и дополнение системного подхода. Все эти подходы в комплексе дают новые возможности для исследования сложных объектов, процессов и явлений в природе и обществе.

^ Информатика включает следующие синергетические аспекты:

- Система должна быть открытой. Закрытая система должна в конечном итоге прийти к состоянию с максимальной энтропией.

- ^ Открытая система должна быть достаточно далека от точки равновесия. В точке равновесия система обладает максимальной энтропией и поэтому не способна к какой-либо организации: в этом состоянии достигается максимум её самодезорганизации. В состоянии, близком к равновесию, система со временем приблизится к нему и придет в состояние полной дезорганизации.

- Фундаментальным принципом самоорганизации служит возникновение и усиление порядка через случайные отклонения системы от некоторого среднего положения. В самом начале подавляются и ликвидируются системой. Но в открытых системах благодаря усилению неравновесности эти отклонения со временем возрастают и приводят к «расшатыванию» прежнего порядка и возникновению нового.

- Возникновение самоорганизации опирается на положительную обратную связь. Функционирование различных автоматических устройств основывается на принципе отрицательной обратной связи, т.е. на получение обратных сигналов от исполнительных органов относительно положения системы и последующей корректировки этого положения управляющими устройствами.

- Процессы самоорганизации сопровождаются нарушением симметрии. Процессы самоорганизации, связанные с необратимыми изменениями, приводят к разрушению старых и возникновению новых структур.

- ^ Самоорганизация может начаться лишь в системах, обладающих достаточным количеством взаимодействующих между собой элементов, имеющих некоторые критические размеры.


  1. ^ Общая теория систем Л. фон Берталанфи.

Принцип системности, выдвижение которого было подготовлено историей естествознания и философии, находит в XX веке все больше сторонников в различных областях знания. В 30-40-е годы австрийский ученый Л. фон Берталанфи успешно применил системный подход к изучению биологических процессов, а после второй мировой войны он предложил концепцию разработки общей теории систем.

В программе построения общей теории систем Берталанфи указывал, что ее основными задачами являются:

1) выявление общих принципов и законов поведения систем независимо от природы составляющих их элементов и отношений между ними;

2) установление в результате системного подхода к биологическим и социальным объектам законов, аналогичных законам естествознания;

3) создание синтеза современного научного знания на основе выявления изоморфизма законов различных сфер деятельности.

Существует ряд системных принципов, важных для понимания концепции системы:

  • Доминирование роли целого над частным, сложного над простым.

  • Целое больше суммы своих частей.

  • Система обладает структурой с определенным расположением и связью ее составных частей.

  • Система имеет иерархическую структуру.

  • Система обладает множеством состояний, соответствующих ее различным свойствам, которые описываются набором параметров.

  • Структура системы является наиболее консервативной характеристикой системы в отличие от состояния системы.

  • Свойства системы как целого определяются не только свойствами ее отдельных элементов, но и свойствами структуры системы в целом.

  • Система выделяется из среды своими качествами. Системы бывают открытые и закрытые.

  • Каждая система имеет параметры, которые являются для нее основными, или жизненно важными. От них зависит существование системы.

  • Гомеостаз системы сохраняет жизненно важные параметры в процессе адаптации системы к внешним условиям и тем самым поддерживает существование самой системы.

Общая теория систем, по замыслу Берталанфи, предложившего первую программу построения такой теории, должна быть некоей общей наукой о системах любых типов. Однако конкретные реализации этой и подобных амбициозных программ натолкнулись на очень серьезные трудности, главная из которых состоит в том, что общность понятия системы ведет к потере конкретного содержания.

В настоящее время построено несколько математических моделей систем, использующих аппарат теории множеств, алгебры. Однако прикладные достижения этих теорий пока весьма скромны. В то же время системное мышление все чаще используется представителями практически всех наук (географии, политологии, психологии и т.д.). Системный подход находит все более широкое распространение в анализе процессов.


  1. ^ Синергетический подход в работах Г. Хакена и Д.С. Чернавского.

Около тридцати лет назад Г. Хакен предложил сам термин «синергетика», получивший признание в определенных научных кругах Германии и в последние 10-15 лет ставший широко использоваться в России. На конференции вставал даже вопрос о том, что уже пришло время заняться написанием истории синергетики.

Это начало было положено совместной работой Г. Хакена и Р. Грехема по изучению излучения лазеров в 1968-70гг. Была установлена аналогия между генерацией когерентного излучения лазера вблизи порога возбуждения и фазовым переходом водорода, и возникло понимание синергетических, кооперативных эффектов в процессах спонтанного формирования макроскопических структур, т.е. самоорганизации.

Г. Хакен отметил особенности своей собственной эволюции: от строгой физики он перешел к исследованию мозга и поведения человека, к психологии человеческого восприятияи познания мира. В своей недавней книге «Принципы функционирования мозга» он предлагает новое понимание нейрофизиологической активности человека, основанное на результатах синергетики.

Мозг рассматривается как сложная самоорганизующаяся система с эмерджентными свойствами известного синергетического принципа, сформулированного Д. С. Чернавским: хаотическая динамика на микроуровне генерирует высокодетерминированное системное поведение на макроуровне (Чернавский 2004).


  1.   1   2   3



    Скачать файл (66.6 kb.)

    Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru