Научный метод

Автор работы: Пользователь скрыл имя, 15 Августа 2013 в 12:19, доклад

Описание работы

Научный метод — совокупность основных способов получения новых знаний и методов решения задач в рамках любой науки.
Эмпирическое исследование направлено непосредственно на объект и опирается на данные наблюдения и эксперимента. На этом уровне научного познания преобладает чувственное познание как живое созерцание.
Теоретическое исследование связано с совершенствованием и развитием понятийного аппарата науки и направлено на всестороннее познание реальности в ее существенных связях и закономерностях. Данный уровень научного познания характеризуется преобладанием рациональных форм знания – понятий, теорий, законов и других форм мышления.

Файлы: 1 файл

otvety_chuvak_otvety.doc

— 1.82 Мб (Скачать файл)

 

Ньютон предложил принцип  дальнодействия, который возник в  результате решения проблемы взаимодействия тел. В основе этого принципа лежит  взаимодействие между телами, которое  происходит мгновенно при разном расстоянии и при отсутствии материальных посредников.

 

Концепция дальнодействия тесно связана с пониманием пространства и времени как особых сред, вмещающих  взаимодействующие тела. В рамках механической картины мира Ньютон предложил  концепцию абсолютного времени  и пространства. Пространство при этом представлялось неким «черным ящиком», который вмещает тела всего мира. Исчезни все тела, пространство все равно продолжало бы существовать. Аналогично, в образе текущей реки, представлялось и время, также существующее абсолютно независимо от материи.

 

Механическая научная  картина мира породила законы механики, которые жестко предопределяли любые  события. Из них совершенно исключалась  случайность. Присутствие человека в действующем мире ничего не меняло. Согласно теории механической картины мира Ньютона, исчезновение человека с лица земли никак не повлияло бы на существование мира: он продолжил бы свое существование, как прежде. Такая теория стала приниматься как универсальная.

 

В физике, тем не менее, уже накапливались эмпирические данные, которые серьезно противоречили существующей механической картине мира. Параллельно системе материальных точек существовало понятие сплошной среды, которое было связано уже не с корпускулярными представлениями о материи, а с континуальными.

 

 

Электромагнитная картина мира

 

Уже в прошлом веке физики дополнили механистическую  картину мира электромагнитной. Электрические  и магнитные явления были известны им давно, но изучались обособленно  друг от друга. Дальнейшее их исследование показало, что между ними существует глубокая взаимосвязь, что заставило ученых искать эту связь и создать единую электромагнитную теорию. Действительно, датский ученый Эрстед (1777—1851), поместив над проводником, по которому идет электрический ток, магнитную стрелку, обнаружил, что она отклоняется от первоначального положения. Это привело ученого к мысли, что электрический ток создает магнитное поле. Позднее английский физик Майкл

 

Фарадей (1791—1867), вращая замкнутый контур в магнитном  поле, обнаружил, что в нем возникает  электрический ток. На основе опытов Фарадея и других ученых английский физик Джеймс Клерк Максвелл (1831—1879) создал свою электромагнитную теорию. Таким путем было доказано, что в мире существуют не только вещество в виде тел, но и разнообразные физические поля. Одно из них было известно и во времена Ньютона и теперь называется гравитационным полем, а раньше рассматривалось просто как сила притяжения, возникающая между материальными телами. После того как объектом изучения физиков наряду с веществом стали разнообразные поля, картина мира приобрела более сложный характер. Тем не менее это была картина классической физики, которая изучала знакомый нам макромир. Положение коренным образом изменилось, когда ученые перешли к исследованию процессов в микромире. Здесь их ожидали новые необычайные открытия и явления.1

 

Изучение экономики  предполагает и предварительное  рассмотрение панорамы современного естествознания, поскольку исследование происходящих экономических процессов невозможно без применения современных научных  методов для понимания природных явлений как неотъемлемой части жизнедеятельности человека, в том числе и экономической. В то же время рассмотрение тенденций развития современного естествознания позволит различать экстенсивный и интенсивный характер изменения способов познания природы по аналогии с экстенсивным и интенсивным развитием экономики. Так, экстенсивное развитие естествознания обеспечивается проявлением и совершенствованием уже имеющихся способов исследования природы, в то время как интенсивный — возникновением качественно новых способов.

 

Некласси́ческая нау́ка — концепция в советской и  российской школе философии науки, введённая В. С. Стёпиным, выделяющая особый тип науки эпохи кризиса  классической рациональности (конец  ХIХ — 60-е годы XX в.). Неклассическая наука включает в себя ряд следующих концепций: теория эволюции Дарвина, теория относительности Эйнштейна, принцип неопределенности Гейзенберга, гипотеза Большого Взрыва, теория катастроф Рене Тома, фрактальная геометрия Мандельброта.

 

В конце ХIХ — начале XX в. последовал ряд открытий, которые не вписывались в существовавшую научную картину мира. Были получены новые экспериментальные данные, которые привели к созданию революционных научных теорий такими учёными, как М. Планк, Э. Резерфорд, Нильс Бор, Луи де Бройль, В. Паули, Э. Шредингер, В. Гейзенберг, А. Эйнштейн, П. Дирак, А. А. Фридман и др.

 

Переход от классической науки к неклассической заключался во вхождении субъекта познания в  «тело» знания в качестве его необходимого компонента. Изменилось понимание предмета науки: им стала теперь не реальность «в чистом виде», а некоторый её срез, заданный через призму принятых теоретических и операционных средств и способов её освоения субъектом.[1][2]

 

Установление относительности  объекта к научно-исследовательской деятельности привело к тому, что наука стала изучать не неизменные вещи, а вещи в конкретных условиях их существования. Поскольку исследователь фиксирует только конкретные результаты взаимодействия изучаемого объекта с прибором, возникает некоторый «разброс» в конечных результатах исследования. Из этого вытекает правомерность и равноправность различных видов научного описания объекта в различных условиях (ср. Корпускулярно-волновой дуализм), создания его теоретических конструктов.[2]

 

Если в классической науке картина мира должна быть картиной изучаемого объекта самого по себе, то неклассический научный способ описания с необходимостью включает в себя, помимо изучаемых объектов, используемые для их изучения приборы, а также сам акт измерения. В соответствии с этим подходом Вселенная рассматривается как сеть взаимосвязанных событий, подчёркивая активную роль и вовлечённость субъекта познания в сам процесс получения знаний. Любое свойство того или иного участка этой сети не имеет абсолютного характера, а зависит от свойств остальных участков сети.[3][неавторитетный источник?]

 

Наука этого периода  столкнулась с миром сложных  саморегулирующихся систем (теория эволюции) и начала осваивать его. Картины  мира различных наук в это время  пока ещё отделены друг от друга, но они все совместно формируют общенаучную картину мира, отсутствовавшую как единое целое в классической науке. Эта картина перестаёт считаться вечной и неизменной истиной и осознаётся как последовательно развиваемое и уточняемое относительно верное знание о мире.[1]

 

В неклассической науке  наметилась тенденция на сближение  естественных и гуманитарных направлений, что стало характерной чертой следующего — постнеклассического  — этапа развития науки.

 

 

 

 

12. Случа́йность — проявление внешних неустойчивых связей в действительности, проявление результата пересечения (совпадения) независимых процессов или событий; проявление неотъемлемого дополнения к законам необходимости.

 

Представления о случайности  зародились при самых первых попытках осознания человеком своего бытия и стали неизбежными при объяснении поведения человека, его судьбы. С понятием случайности связан вопрос о свободе воли человека, издавна занимавший различных мыслителей. Отрицание случайности неизбежно приводило к фатализму, представлению о предопределенности всего происходящего в мире.

 

Случайность в естествознании[править | править исходный текст]

 

Первоначально научное естествознание отторгало случайность, а неоднозначность  и неопределенность рассматривались  как неполное выражение знаний об исследуемых объектах — господствовал детерминизм. Так, П.Гольбах писал: «Ничего в природе не может произойти случайно; все следует определенным законам; эти законы являются лишь необходимой связью определенных следствий с их причинами... Говорить о случайном сцеплении атомов либо приписывать некоторые следствия случайности — значит говорить о неведении законов, по которым тела действуют, встречаются, соединяются либо разъединяются».

 

Но затем, начиная с XIX века, стали  разрабатываться статистические теории, которые основывались на идеях и методах теории вероятностей. Первыми материальными системами, исследуемыми в рамках статистических теорий, были газы (смотри статью Термодинамика). Движения элементов (молекул газа) в таких системах относительно независимы и равноправны. Хаотические состояния таких систем – это идеальное воплощение случайности.[источник не указан 83 дня]

 

Понятие о случайности, основанное на статистических представлениях, получило дальнейшее развитие в XX веке в ходе разработки квантовой теории. Согласно квантовой механике, процессы, происходящие в рамках атомов, являются принципиально вероятностными.

 

В естествознании появилось представление  о точках бифуркации — тех моментах, когда какие-либо системы в ходе своих внутренних изменений и усложнений приобретают черты крайней неустойчивости, что с необходимостью приводит к качественным преобразованиям. В такие переломные моменты открываются разнообразные пути таких качественных преобразований. В точках бифуркации наблюдается своего рода царство случайности.[1]

 

Вероя́тность — степень (мера, количественная оценка) возможности наступления  некоторого события. Когда основания  для того, чтобы какое-нибудь возможное  событие произошло в действительности, перевешивают противоположные основания, то это событие называют вероятным, в противном случае — невероятным или маловероятным. Перевес положительных оснований над отрицательными, и наоборот, может быть в различной степени, вследствие чего вероятность (и невероятность) бывает большей или меньшей[1]. Поэтому часто вероятность оценивается на качественном уровне, особенно в тех случаях, когда более или менее точная количественная оценка невозможна или крайне затруднительна. Возможны различные градации «уровней» вероятности[2].

 

Исследование вероятности с математической точки зрения составляет особую дисциплину — теорию вероятностей[1]. В теории вероятностей и математической статистике понятие вероятности формализуется как числовая характеристика события — вероятностная мера (или её значение) — мера на множестве событий (подмножеств множества элементарных событий), принимающая значения от  до . Значение  соответствует достоверному событию. Невозможное событие имеет вероятность 0 (обратное вообще говоря не всегда верно). Если вероятность наступления события равна , то вероятность её не наступления равна . В частности, вероятность  означает равную вероятность наступления и не наступления события.

 

Классическое определение  вероятности основано на понятии  равновозможности исходов. В качестве вероятности выступает отношение количества исходов, благоприятствующих данному событию, к общему числу равновозможных исходов. Например, вероятность выпадения «орла» или «решки» при случайном подбрасывании монетки равна 1/2, если предполагается, что только эти две возможности имеют место[3] и они являются равновозможными. Данное классическое «определение» вероятности можно обобщить на случай бесконечного количества возможных значений — например, если некоторое событие может произойти с равной вероятностью в любой точке (количество точек бесконечно) некоторой ограниченной области пространства (плоскости), то вероятность того, что оно произойдет в некоторой части этой допустимой области равна отношению объёма (площади) этой части к объёму (площади) области всех возможных точек.

 

Эмпирическое "определение" вероятности связано с частотой наступления события исходя из того, что при достаточно большом числе  испытаний частота должна стремиться к объективной степени возможности  этого события. В современном  изложении теории вероятностей вероятность определяется аксиоматически, как частный случай абстрактной теории меры множества. Тем не менее, связующим звеном между абстрактной мерой и вероятностью, выражающей степень возможности наступления события, является именно частота его наблюдения.

 

Вероятностное описание тех или иных явлений получило широкое распространение в современной  науке, в частности в эконометрике, статистической физике макроскопических (термодинамических) систем, где даже в случае классического детерминированного описания движения частиц детерминированное описание всей системы частиц не представляется практически возможным и целесообразным. В квантовой физике сами описываемые процессы имеют вероятностную природу.

Возникновение понятия  и теории вероятности[править | править исходный текст]

 

Первые работы об учении о вероятности относится к 17 веку. Такие как переписка французских  учёных Б. Паскаля, П. Ферма (1654 год) и  голландского учёного X. Гюйгенса (1657 год) давшего самую раннюю из известных  научных трактовок вероятности[5]. По существу Гюйгенс уже оперировал понятием математического ожидания. Швейцарский математик Я. Бернулли, установил закон больших чисел для схемы независимых испытаний с двумя исходами (посмертно, 1713 год). В XVIII в. — начале ХIХ в. теория вероятностей получает развитие в работах А. Муавра (Англия)(1718 год), П. Лаплас (Франция), К. Гаусса (Германия) и С. Пуассона (Франция). Теория вероятностей начинает применяться в теории ошибок наблюдений, развившейся в связи с потребностями геодезии и астрономии, и в теории стрельбы. Необходимо отметить, что закон распределения ошибок по сути предложил Лаплас сначала как экспоненциальная зависимость от ошибки без учета знака (в 1774 год), затем как экспоненциальную функцию квадрата ошибки (в 1778 году). Последний закон обычно называют распределением Гаусса или нормальным распределением. Бернулли (1778 год) ввел принцип произведения вероятностей одновременных событий. Адриен Мари Лежандр (1805) разработал метод наименьших квадратов.

 

Во второй половине XIX в. развитие теории вероятностей связано с работами русских математиков П. Л. Чебышева, А. М. Ляпунова и А. А. Маркова (старшего), а также работы по математической статистике А. Кетле (Бельгия) и Ф. Гальтона (Англия) и статистической физике Л. Больцмана (в Австрия), которые создали основу для существенного расширения проблематики теории вероятностей. Наиболее распространённая в настоящее время логическая (аксиоматическая) схема построения основ теории вероятностей разработана в 1933 советским математиком А. Н. Колмогоровым.

Информация о работе Научный метод