2.1.7. Физика, математика и компьютерные науки
Первым ученым, осознавшим необходимость соединения физического эксперимента с математическим описанием, был Галилео Галилей (1564—1642). Галилею принадлежит известное высказывание о том, что «книга природы» написана языком математики. Оно давало методологическую основу взаимодействию физики и математических методов.
Большой толчок развитию физики дало открытие координатной системы, связанной с именем Рене Декарта (1596—1650). Христиан Гюй- гене (1629—1695) при анализе оптических явлений использовал геометрические методы.
Большую роль в развитии математических методов описания физических явлений сыграл Г.В. Лейбниц (1646—1716). Независимо от Ньютона он создал систему дифференциального и интегрального исчисления. Оставив метафизические споры философам и теологам, естествоиспытатели XVII—XIX вв. смогли сосредоточиться на решении конкретных физических задач, используя для теоретического описания своих результатов сначала геометрию, а затем алгебру и математический анализ.
Торжеством взаимодействия математики и физики стала формулировка И. Ньютоном законов механики и открытие им закона всемирного тяготения. Механика получила статус теоретической дисциплины после введения согласованной системы математических понятий (система отсчета, материальная точка, сила, скорость, ускорение и т.д.).
Можно выделить три этапа математизации знания: феноменологический, модельный и фундаментально-теоретический[85].
На первом этапе, характерном для любой науки, происходит количественная обработка эмпирических данных. В результате из рецептов и записей выделяются повторяющиеся эмпирические закономерности, которые репрезентируются набором чисел, часто сведенных в таблицы. Второй этап связан с построением моделей явления, «теоретической реконструкцией» исследуемого объекта с помощью довольно произвольно выбранных базисных онтологических объектов. На модельном этапе математизации могут сосуществовать различные модели, в которых в качестве базисных, предельных объектов выбираются как наблюдаемые, так и чисто теоретические «конструкты». Затем происходит переход к третьему этапу математизации знания — появлению полной математической теории, описывающей реальность в определенных (часто неявно) границах применимости данной теории. К таким теориям относятся, например, классическая механика, классическая электродинамика, квантовая механика.Современная физика активно использует математические методы для решения своих задач. Широко применяются вычислительные средства управления экспериментом и обработки получаемых данных. Использование быстродействующих средств вычислительной техники позволяет проводить эксперименты «в реальном масштабе времени», когда обработка информации происходит незамедлительно, без задержки, «незаметно» для оператора.
Современные предельные объекты физических теорий, их онтологическое содержание определяются применяемыми математическими моделями. Часто зарегистрировать эти фундаментальные объекты прямы- ми методами физического наблюдения весьма затруднительно. В качестве примера можно привести «детали» элементарных частиц — «кварки». С другой стороны, развитие средств физического наблюдения стимулирует появление новых математических описаний реальности. Основные физические приборы были придуманы и сконструированы к концу XVII в. В дальнейшем совершенствовались технология и элементная база физического эксперимента. Появились механические аналоги современных компьютеров.
Их создание связано с именами Паскаля (1642), Морланда (1666) и Лейбница (1671)[86].Процесс «коэволюции» вычислительных средств и научных методов происходит на всем протяжении развития физического знания. Современную физическую лабораторию невозможно представить без компьютерной техники, систем автоматизации, которые используются для проведения экспериментов и обработки полученных данных. Построение и проверка теоретических моделей также требуют численных методов, реализуемых на компьютерах. При этом сама вычислительная техника основана на применении элементной базы, созданной благодаря успехам физической науки. Увеличение быстродействия компьютеров, объема хранимой и обрабатываемой информации возможно только при использовании новейших физических открытий.
Р. Фейнман считал, что «открытие компьютеров и размышления над компьютерами оказываются чрезвычайно полезными во многих отраслях человеческих рассуждений. Например, мы никогда на самом деле не понимали, насколько плохим было наше понимание языков, теории грамматики и всего такого, пока мы не попробовали создать компьютер, способный понимать язык. Мы пытались научиться многому в психологии, пытаясь понять, как компьютер работает. Есть много интересных философских вопросов о рассуждениях и связях, наблюдениях и измерениях и т.д., подумать о которых заново с новым типом мышления стимулировал нас компьютер»[87]. Фейнман искренне надеялся, что компьютерный тип мышления даст новые идеи.
Понятие информации: генезис и современные подходы. Информационные системы появились задолго до компьютеров. Однако математическое определение количества информации было сформулировано только в 1949 г. в работе Шеннона и Вивера[88]. Понятие количества информации, по Шеннону, предполагает наличие источника, приемника и передающего канала. В формуле Шеннона количество информации, необходи- мое для записи текста с выбранным алфавитом символов, определяется как сумма произведений вероятностей появления символа с номером і на натуральный логарифм этой вероятности по всем символам, взятая с отрицательным знаком.
Наиболее привычный вид информации — это печатный текст.
Интуитивно понятно, что чем больше строчек текста располагается на листе, тем большее количество информации содержится в тексте. Казалось бы, можно сделать вывод, что максимальное количество информации содержится на полностью черном (белом) листе. Однако это не так. Чем больше на листе будет строчек текста, тем труднее будет считывать символы текста, так как строчки будут сливаться друг с другом.Таким образом, информация предстает как мера упорядоченности, в отличие от энтропии, являющейся мерой беспорядка. Как было замечено известным биофизиком JI.A. Блюменфельдом: «Энтропия системы есть не что иное, как количество информации, не хватающей для ее полного описания»[89]. Было показано, что энтропию системы, которая играет важнейшую роль в термодинамике, можно выразить через количество информации. А поскольку энтропия системы определяется как отношение энергии системы к температуре, количество информации становится базовым понятием в физике.
Но что такое базовое понятие? Традиционно фундаментальные базисные определения при их кажущейся простоте наиболее трудно осознаются. В качестве примера можно привести физические термины: температура, материальная точка, сила, скорость. Сложность состоит в том, что, оказывается, даже в такой аксиоматичной системе, как математика , нельзя строго определить простейшие на первый взгляд понятия точки, линии, плоскости. Базовые понятия определяются друг через друга. В качестве базового онтологического объекта можно выбрать точку, и тогда прямая будет множеством точек, либо прямую, и тогда точки получаются на пересечении прямых линий.
Подчеркивая базисный характер понятия информации, один из создателей кибернетики — Н. Винер считал, что «информация есть информация, а не материя и не энергия». Но может ли информация существовать без материального носителя? Создание кибернетических устройств показало, что для управления системой (в которой может быть запасена энергия) достаточно использовать сигналы, сколь угодно малые по мощности, но обладающие определенной формой, специальным образом промодулированные.
Таким образом, в управлении оказалась важна форма сигнала, а не его энергия. При этом следует заметить, что как ни мала может быть энергия сигнала, он тем не менее нуждается в информационном носителе. И это касается как механических систем типа ключа для механического замка, который обладает определенной формой, оставаясь материальным, так и электронных ключей, которые также существуют только записанными на материальных (магнитных, оптических, электронных) носителях.На сегодняшний день не существует однозначного определения понятия информации, хотя самих определений существует множество. В контексте синергетики, по мнению Д.С. Чернавского, наиболее конструктивно определение информации, предложенное Г. Кастлером: «Информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных»[90]. В современных работах можно встретить различные подходы к определению меры ценности информации, а также попытки разделить понятия макроинформации (запомненного выбора) и микроинформации (негоэнтропии, отрицательной энтропии).
Заметим, что сама информация с ее ценностью и количеством существует только в рамках более широкой системы, включающей в обязательном порядке потребителей информации с их запросами.
Со времен Ньютона в физике утвердился динамический подход к описанию физических явлений, который показал свою эффективность при анализе объектов макро- и микромира. Понятие количества информации использовалось в технике связи, теории управления, затем в компьютерных информационных системах. В конце XX в. было показано, что для описания сложных физических систем необходимо учитывать как динамические, так и информационные характеристики. Оказалось, что малые уровни управляющих сигналов могут оказывать сильное воздействие на поведение не только искусственных, но и естественных открытых физических систем, через которые могут протекать большие энергетические потоки. В России проблему совместного воздействия сил и информации на системы в условиях сильного отклонения их от динамического равновесия, приводящего к самоорганизации, наиболее полно проанализировал Б.Б.
Кадомцев.Рассмотрение открытых систем позволило по-новому взглянуть на процессы, связанные с физическими измерениями. Обнаружение частицы в одном из состояний приводит к уменьшению энтропии частицы, что влечет за собой соответствующее возрастание энтропии во внешнем мире (иначе можно было бы создать вечный двигатель второго рода). Чтобы производить измерения и воспринимать измеренные данные, необходим «приток» информации извне.
Согласно Б.Б. Кадомцеву, все предметы, которые нас окружают, информационно связаны. Через солнечный свет осуществляется «измере- иие» макротел живыми и неживыми телами, поэтому когерентность «иси»-функций макротел постоянно разрушается1.
Связь динамического и информационного описания наиболее наглядно проявляется при анализе так называемых «запутанных состояний» в квантовой механике. Понятие запутанных состояний появилось после формулировки парадокса Эйнштейна—Подольского—Розена (или ЭПР-парадокса), который был сформулирован в статье этих трех авторов в 1935 г. Статья была озаглавлена «Можно ли считать квантово-механи- чсское описание физической реальности полным?». Авторы рассматривали квантово-механическую систему, состоящую из двух частиц, которые, провзаимодействовав на близком расстоянии, разлетаются далеко друг от друга. Согласно законам квантовой механики, если произвести измерение над одной частицей, то в то же самое мгновение мы узнаем состояние другой частицы, несмотря на то что физического воздействия при этом на другую частицу не оказывается. Эти две частицы, называемые ЭПР-парой, оказываются скоррелированными друг с другом.
В классическом случае эту схему можно проиллюстрировать следующим образом. Предположим, у нас есть разборная коробка, состоящая из двух отделений, в которую помещают черный и белый шарики. Затем происходит перемешивание шариков, и каждый случайным образом попадает в одно из отделений. Коробка разбирается на две части, которые развозятся в разные концы города. Как только один из обладателей половины коробки откроет свое отделение и увидит цвет шарика, он в то же мгновение узнает цвет шарика в отделении коробки на противоположном конце города. Отличие квантового случая состоит «только» в том, что до измерения, до открытия коробки, шарик не обладает определенным цветом. Любой из квантово-механических шариков, из тех, что уже были разнесенными в разные точки города, может стать при производстве измерения как белым, так и черным. Более того, попытки «подсмотреть» цвет шарика, например «просветив» коробку с помощью рентгена, разрушают корреляцию.
Говоря языком квантовой механики, волновая функция ЭПР-пары не распадается на произведения волновых функций каждой из частиц. Шредингер назвал подобные состояния, у которых волновая функция не распадается на произведения индивидуальных функций, «запутанными состояниями» (entangled states). В таких состояниях имеет место жесткая внутренняя корреляция, из-за которой измерение, произведенное над одной частицей, приводит к изменению волновой функции второй частицы, на каком бы отдаленном расстоянии они не находились. Внешне это выглядит так, как если бы существовало некоторое нелокальное взаимодействие.
С 80-х гг. XX в. удалось воплотить мысленные эксперименты, показывающие нелокальность квантовой механики, на реальных физических экспериментальных установках.
С использованием ЭПР-пар были предложены схемы «квантовой криптографии», квантовой «телепортации» (для переноса квантовой информации) и квантовых вычислений.
Возможности моделирования физики на компьютерах. Прообраз современного компьютера был создан в XVII в. Однако до XIX в. вычисления считались чисто мыслительным процессом. Становление термодинамики показало, что любая замкнутая сложная система приближается к тепловому равновесию, причем все виды энергии, которые могут быть использованы для совершения работы, переходят в тепловую энергию. Рассмотрение Вселенной в качестве замкнутой системы приводило к гипотезе тепловой смерти.
Максвелл, рассуждая над вторым началом термодинамики, согласно которому в системе, заключенной в постоянный объем, стенки которого не пропускают теплоты, а температура и давление одинаковы во всем объеме, без затраты работы нельзя создать неравновесное распределение температуры и давления, придумал «существо, способности и восприятия которого настолько обострены, что оно может следить за отдельной молекулой». Такая «разумная машина», способная определять скорость отдельных молекул, находясь в сосуде с газом, разделенном на две половины подвижной заслонкой, могла бы изменить температуру в разных частях сосуда, не производя работы, а просто открывая заслонку в нужный момент для более быстрых молекул и таким образом собирая их в одном из отделений.
В 1912 г. М. Смолуховский проанализировал действия «демона» Максвелла и показал, что повышение температуры в одном из отделений сосуда приведет к разогреву дверцы и самого «демона», который в конце концов испортится или погибнет. Через два года он, правда, заметил, что, возможно, более «интеллигентное существо» сможет справиться с задачей сортировки молекул.
J1. Сцилард, рассматривая этот парадокс Максвелла в частном случае, когда сосуд с поршнем содержит только одну молекулу, обратил внимание на необходимость получения информации о молекулах. Таким образом, он, по существу, открыл связь между термодинамикой и информацией. Сцилард высказал гипотезу, что любое физическое измерение необратимо.
Применив подобные рассуждения к компьютерам, фон Нейман в 1949 г. предположил, что за каждый шаг вычислений будет рассеиваться энергия порядка kTlnl (при комнатной температуре это примерно ЗхЮ-21 Дж)[91].
Развитие компьютерных наук показало, что компьютеры могут работать как машины с произвольным низким уровнем трения. Исследовав процессы рассеяния энергии при вычислениях, Р. Ландауэр показал, что оценка, полученная фон Нейманом для рассеивания энергии при вычислениях, верна только для логически необратимых операций[92]. Оказалось, что существует связь между логической и термодинамической обратимостью.
Ч. Беннет решил задачу создания логически обратимой машины Тьюринга[93]. На первом этапе такая машина, в отличие от необратимой, сохраняет все промежуточные данные. На втором — осуществляется распечатка полученных результатов. На третьем — логически обратимая машина возвращается в исходное состояние. П. Бенев предложил кван- товомеханические схемы реализации логически обратимых машин и описал квантовые машины Тьюринга[94].
Р. Фейнман сформулировал важнейшие методологические проблемы, связанные с возможностями компьютерного моделирования. Его доклад «Моделирование физики на компьютерах» был опубликован в 1982 г.[95]Фейнман поднял вопрос о точном моделировании квантовой физики, когда компьютер делает точно то же, что и природа. Под компьютером подразумевается универсальный компьютер, когда неважно, на какой элементной базе он собран. При этом Фейнман говорил о локально связанных элементах такого компьютера, который не должен был быть огромного размера. Количество элементов, требуемых для моделирования большой физической системы, должно быть пропорционально простран- ственно-временному объему физической системы. Удвоение объема пространства-времени не должно требовать экспоненциального увеличения размера компьютера.
Фейнман считал, что поскольку классическая физика локальна, причинна и обратима, то она вполне адаптируема для компьютерного моделирования[96]. Ход его рассуждений сводится к тому, что, имея значения импульса и координаты (два бита информации) в прошлом, можно в принципе вычислить будущие значения этих параметров.
Но моделирование вероятностей, на которых базируется квантовая теория, средствами классического компьютера вызывает трудно- сти. Описание изолированной части природы с N переменными требует общей функции N переменных. Если компьютер моделирует природу вычислением или хранением этой информации, то удвоение этой части природы потребует экспоненциального роста размеров компьютера.
Квантовые системы нельзя смоделировать на классическом компьютере. Тем не менее квантовую механику можно моделировать с помощью квантовой системы из элементов квантового компьютера. Квантовый компьютер был «мысленно построен» из квантово-механических элементов, подчиняющихся квантовым законам. Фейнман теоретически показал, что «законы физики не запрещают уменьшать размеры компьютера до тех пор, пока биты не достигнут размеров атомов и квантовое поведение не станет доминирующим»[97].
На необходимость развития квантовых вычислений вследствие большой информационной емкости квантовых систем указывал в 80-е гг. XX в. Ю.И. Манин. Он считал необходимым описать работу подобного автомата, используя понятие эволюции системы в форме унитарных преобразований в гильбертовом пространстве. Эта задача была решена Д. Дойчем, которому удалось сформулировать теорию квантового компьютера в терминах гильбертова пространства и открыть механизм быстрого счета, недоступного классическим вычислительным устройствам. Академик В.А. Садовничий комментирует это следующим образом: «При счете на квантовой руке можно пометить сразу все пальцы и вычислить или все значения нужной функции одновременно или построить вектор состояния, одинаково близкий ко всем состояниям системы»[98]. Квантовые алгоритмы позволяют экспоненциально ускорять вычисления по сравнению с классическими методами.
Например, алгоритм разложения натурального числа на произведение простых чисел был известен уже Евклиду. Однако время, которое требуется для выполнения алгоритма Евклида, очень быстро (экспоненциально) растет с увеличением значения числа. Ривест, Щамир и Адлеман, придумавшие в 1977 г. схему кодирования, основанную на разложении числа на простые сомножители, предложили всем желающим принять участие в соревновании на самое быстрое разложение на сомножители 129-значно- го числа. Только через 17 лет это было реализовано на практике.
П. Шору удалось решить задачу разложения натурального числа на простые сомножители, используя квантовый компьютер. В квантовом алгоритме Шора используется интерференция квантовых Фурье-обра- юн периодической функции, значения которой вычисляются одновременно. Этот подход аналогичен методу изучения структуры вещества с помощью рассеяния, в процессе которого происходит интерференция волн от всех центров рассеивания образца.
Полученные Шором результаты превратили теорию квантовых ком- мыотеров из чисто академического междисциплинарного направления исследований в самостоятельную быстро развивающуюся науку. Новые исследования возродили интерес к различным интерпретациям квантовой механики. Дойч, например, полагает, что квантовые вычисления доказывают гипотезу Эверетта о множественности миров, и предлагает работу квантового компьютера рассматривать как реально происходящую одновременно во всех мирах.
В настоящее время идут теоретические и экспериментальные исследования путей построения квантовых компьютеров. С одной стороны, это создание новых квантовых алгоритмов, с другой — экспериментальное получение так называемых кубитов (qubit), которые являются квантовым аналогом битов. Кубит представляет собой квантовую систему с двумя базисными состояниями, в которых можно закодировать числа 0 и 1. Используя цепочку из п кубитов, можно закодировать я-значное двоичное число. Если каждый из кубитов находится в суперпозиции базисных состояний, то состояние цепочки из п кубитов можно описать как суперпозицию из 2п состояний двоичных чисел длины п. Осуществляя над такой цепочкой унитарные преобразования, можно реализовать процедуру обработки информации, записанной в двоичных числах, причем все 2п вариантов входных данных обрабатываются параллельно[99]. Поэтому задачи, которые на классическом компьютере решаются за экспоненциально большое время (т.е. практически бесконечное), на квантовом компьютере можно решить за практически достижимое время.
Экспериментально кубиты создаются на базе ЭПР-коррелированных пар, при этом используются фотоны с различной поляризацией или частицы с противоположно направленными спинами.
Перспективы практического применения квантовой механики в сфере квантовой информации, которая включает квантовую телепортацию, квантовую криптографию, квантовый компьютер, привлекают все больше исследователей в эту динамичную междисциплинарную область.
Современные вычислительные машины выполняют огромное количество логических операций в единицу времени. Теоретическим базисом для создания современных универсальных компьютеров послужила так называемая машина Тьюринга. Понятие машины Тьюринга появилось в результате «прямой попытки разложить интуитивно известные нам вычис- лительные процедуры на элементарные операции»[100]. Статья Тьюринга, в которой был введен точно определенный класс интуитивно вычислимых функций (функции, вычислимые по Тьюрингу), появилась в 1936 г. Этому событию предшествовало осознание в 1935 г. того, что класс так называемых А,-определимых функций, изучавшихся Черчем и Клини, охватывает все функции, которые в соответствии с нашим интуитивным представлением можно рассматривать как вычислимые. Похожими свойствами обладал класс общерекурсивных функций, определенный Геделем в 1934 г. Черчем и Клини было доказано, что эти два класса совпадают, т.е. каждая ^-определимая функция является общерекурсивной, и наоборот.
В 1936 г. был опубликован тезис Черча, согласно которому все функции, которые мы можем рассматривать как вычислимые, являются А,-оп- ределимыми, или, что эквивалентно, общерекурсивными. Тезис Черча не является теоремой, «в нем предлагается отождествить несколько расплывчатое интуитивное понятие с понятием, сформулированным в точных математических терминах, и потому доказать его невозможно»[101]. В статье Тьюринга аналогичное утверждение высказывалось относительно функций, вычислимых по предложенным им критериям. В 1937 г. ученый показал, что его вычислимые функции представляют собой то же самое, что и ^-определимые. Поэтому тезис Черча называют еще тезисом Черча—Тьюринга.
Таким образом, гипотеза Черча—Тьюринга задает ограничения на то, что может быть вычислено. При этом данное утверждение обычно интерпретируется как квазиматематическое, что говорит об эквивалентности возможных форматизаций интуитивного понятия алгоритма или вычисления. Дойч предположил, что гипотеза Черча—Тьюринга имеет глубокий физический смысл и может рассматриваться в качестве нового физического принципа Черча—Тьюринга. Дойч предложил интерпретировать понятие вычислимых по Тьюрингу функций в качестве функций, которые в принципе могут быть вычислены реальной физической системой, вычислимы Природой, причем вычислительная машина, по Дойчу, обладает способностью полного моделирования физической системы.
В работе Дойча сформулирована следующая физическая версия принципа Черча—Тьюринга: «Каждая конечно реализуемая физическая система может быть полностью моделирована универсальной модельной вычислительной машиной, оперирующей конечными средствами»[102]. Данный принцип сильнее тезиса Черча настолько, что он не удовлетворяется машиной Тьюринга в классической физике. Тем не менее квантовая теория совместима с этим принципом: реальная конечная система может быть полностью смоделирована универсальным квантовым компьютером.
Рассмотрев гипотезу Черча—Тьюринга в качестве неявного физического предположения, Дойч прослеживает связи между физикой и компьютерной наукой. Он говорит о квантовой теории сложности, которая в ос- I ювном связана с ограничениями на вычисления функций: какие функции можно вычислить, какие вычислительные ресурсы для этого потребуются (объем памяти, быстродействие). Пытается понять спонтанный рост сложности в физических системах, по-новому взглянуть на эволюцию жизни и человеческого знания. По мнению Дойча, квантовая теория сложности позволяет определить понятие «сложность» с физической точки зрения.
Вывод, к которому приходит Дойч, звучит революционно: «Воспринимать принцип Черча—Тьюринга как физический закон — это не значит просто сделать компьютерную науку частью физики. Такая точка зрения превращает часть экспериментальной физики в раздел компьютерных наук»[103]. Конечно, это всего лишь смелая гипотеза, пока больше философская, чем естественно-научная, однако она весьма показательна в отношении грядущих перемен, которые, возможно, не за горами. Благодаря успехам вычислительной техники и связанной с этим науки, под «давлением» информации мир переживает динамические изменения.
Вопросы для самопроверки
- Чем обусловлено особое место физики в системе естественно-научного знания?
- В чем состоит оппозиция редукционизма и холизма (антиредукционизма)? Приведите возможные аргументы за и против того и другого подходов к трактовке научного знания.
- Что такое онтология? Как соотносится она с научной картиной мира? Какие картины мира прослеживаются в истории развития науки?
- Сформулируйте основные особенности современной квантово-полевой картины мира. Раскройте суть современных представлений о взаимодействии, вакууме и калибровочных полях.
- Что такое стандартная модель и с какими проблемами и трудностями она сталкивается на современном этапе развития физики?
- Каково значение общего учения о детерминизме в анализе оснований науки?
- В чем специфика теоретико-вероятностных методов исследования в развитии познания?
- Раскройте взаимоотношение понятий причинности и телеономизма.
- В чем различие между объектностью и объективностью квантово-механического описания реальности? Насколько универсальным является проведенное различение?
- Дайте характеристику основных концепций пространства и времени: субстанциальной и реляционной — для пространства и статической и динамической — для времени.
- Раскройте суть основных трактовок природы релятивистских эффектов сокращения длины и замедления времени.
- Чем был вызван переход к общей теории относительности (ОТО) и как это связано с феноменом гравитации?
- Дайте определение понятия «система». Охарактеризуйте основные этапы развития системного подхода в научном познании.
- Что такое информация? Как это понятие связано с понятиями энергии, вещества, материи и сознания?
- Что такое квантовый компьютер? Можно ли моделировать квантовые системы на квантовом компьютере?
Темы рефератов
- Особое место физики в системе естественно-научного знания — философский анализ (по работам С.И.Вавилова).
- Философский анализ оппозиции редукционизма и антиредукционизма (холизма).
- Проблема описания элементарных объектов в современной физике.
- Концепция вакуума в современной физике.
- Философские аспекты современных единых теорий поля.
- Философский анализ концепции пространства и времени.
- Неевклидова геометрия — ее возникновение и философское значение.
- Представления о случайности в структуре познания.
- Взаимодействие фундаментальных и прикладных исследований в развитии науки.
- Идея иерархии (уровней) в структуре познания.
- Вероятностная революция в науке.
- Причинность в квантовой теории и вопрос о скрытых параметрах.
- «Коэволюция» вычислительных средств и научных методов: история, современность, возможные перспективы.
- Философско-методологические аспекты понятия сложности.
- Компьютерные науки и физика.
- Влияние внедрения методов квантовых вычислений на изменение научной картины мира.
Литература
Карнап Р. Философские основания физики. М., 1972.
Квантовый компьютер и квантовые вычисления. Ижевск, 1999.
Латыпов Н.Н., Бейлин В.А., Верешков Г.М. Вакуум, элементарные частицы и Вселенная. М., 2001.
Пригожим И., Стенгерс И. Время, хаос, квант. К решению парадокса времени. М., 1994.
Причинность и телеономизм в современной естественно-научной парадигме. М., 2002.
Степин B.C. Теоретическое знание. Структура, историческая эволюция. М., 2000.
Физика в системе культуры. М., 1996.
Философия физики элементарных частиц. М., 1995.
Формирование современной естественно-научной парадигмы. М., 2001.
Чернавский Д. С. Синергетика и информация. М., 2001.
Дополнительная литература
Дэвис П. Суперсила. М., 1989.
Сачков Ю.В. Вероятностная революция в науке. М., 1999. 100 лет квантовой теории. История. Физика.Философия. М., 2002. Поппер К. Эволюционная эпистемология и логика социальных наук. М., 2000.
Философия естествознания. М., 1966.