Weryfikacja i falsyfikacja jako procedury metodologiczne. Empiryczne obalenie


Niedawno odbyłem dziwną rozmowę z jednym z moich znajomych. Twierdził, że w istocie to, co proponowali logiczni pozytywiści i to, co proponował Popper, jest jednym i tym samym. Dlatego od dawna chciałem zrobić ten wpis, aby wyjaśnić sytuację w tym sensie, że osobiście ją widzę.

Na początek kilka słów o pozytywizmie logicznym. To wszystko może wydawać się nieco uproszczone, ale jednak.
Pozytywizm logiczny jest ruchem, który rozwinął się w oparciu o tzw. „Krąg Wiedeński”, zorganizowany w 1922 r. przez M. Schlicka. Ciekawy problem postawili pozytywiści logiczni – znalezienie wiarygodnej podstawy wiedza naukowa. Ponadto bardzo interesował ich problem demarkacji – oddzielenia wiedzy naukowej od wiedzy pozanaukowej; oni w szczególności naprawdę chcieli wypędzić filozofię (metafizykę) z nauki. Zdaniem pozytywistów logicznych, aby dane twierdzenie (w sensie logicznym) mogło mieć status naukowego, konieczne jest, aby dało się je wyrazić za pomocą jakichś zdań elementarnych (protokolarnych), które mają charakter empiryczny (dla uproszczenia rozważymy w ten sposób, chociaż jest tu coś innego -Co). Oznacza to, że w istocie każdą wiedzę naukową należy ściśle sprowadzić do doświadczenia empirycznego w takiej czy innej formie. Natomiast wiedza teoretyczna budowana jest w oparciu o wiedzę empiryczną poprzez jej uogólnienie indukcyjne. Logiczni pozytywiści wysuwają tę tezę zasada weryfikacji, które teoria naukowa musi spełniać. Jego logiczna forma to

gdzie T jest teorią i jest konsekwencją logicznie wydedukowaną z teorii T, a jednocześnie zdaniem elementarnym wyrażającym empirycznie wiarygodny fakt. W tym przypadku mówią, że teorię potwierdza fakt empiryczny a. Im więcej faktów empirycznych, tym wyższy stopień potwierdzenia teorii. Schemat ten opiera się zatem na indukcji – poszczególne fakty potwierdzają ogólną teorię.

Koncepcja Karla Poppera przeciwstawia się pozytywizmowi logicznemu w wielu punktach, w szczególności:

  1. Przeciw indukcji. Indukcja jako metoda logiczna obejmuje moment irracjonalny (o czym mówił David Hume): w którym momencie można przerwać wyliczenie i przejść od przesłanek (skończonego zbioru faktów) do wniosku (ogólnego stwierdzenia na temat wszystkich takich faktów)? Z logicznego punktu widzenia – nigdy. Nie ma logicznego przejścia od przesłanek do wniosków. A indukcja jest logiczną podstawą empiryzmu. Zatem empiryzm nie jest logicznie uzasadniony.
  2. Wbrew zasadzie weryfikacji. Ustalenie prawdziwości określonego stwierdzenia jest dość trudne. Na przykład stwierdzenie „Wszystkie łabędzie są białe” będzie prawdziwe, jeśli każdy z łabędzi będzie biały. Oznacza to, że musisz sprawdzić każdego łabędzia. Ale możesz wykazać fałszywość takiego twierdzenia, znajdując przynajmniej jeden kontrprzykład. Zatem, istnieje pewna asymetria między potwierdzeniem a zaprzeczeniem.
  3. Przeciwko dyskredytacji filozofii (metafizyki) przez pozytywistów. Popper pokazał (patrz jego „Logika” badania naukowe"), że jeśli sięgnąć do zasad pozytywizmu logicznego, to staje się jasne, że nie tylko filozofia wypada z kategorii nauki - wiele twierdzeń fizyki teoretycznej okazuje się także pozanaukowych. Tu przypomina mi się historia ogólna teoria względność. Osoby rozumiejące problem rozumieją, że nie ma ani jednego pełnego potwierdzenia tej teorii. Istnieje wiele (ogólnie mówiąc bardzo małych) potwierdzeń, które w taki czy inny sposób opierają się na obliczaniu poprawek do potencjału Newtona. Ale to nie sprawia, że ​​wątpimy w tę teorię. I tu chodzi o to, że na pierwszy plan wysuwa się teoria, a nie doświadczenie. Popper nie wierzył* (nawiasem mówiąc, Einstein też nie wierzył), że teoria powinna opierać się na faktach empirycznych lub w jakikolwiek sposób być przez nie prowokowana.
Opierając się na swojej koncepcji, Popper proponuje alternatywę dla zasady weryfikacji – zasada fałszowania, którego schemat logiczny wygląda następująco:

gdzie T jest teorią, b jest konsekwencją, a nie b jest faktem empirycznym, który zaprzecza konsekwencji. Konkluzja potwierdza fałszywość T.
W rezultacie:
1. Znaczenie wiedzy empirycznej pozostaje niezmienne.
2. Tryb ten ma charakter dedukcyjny, a jego wniosek jest logicznie pewny.
3. Indukcja zostaje zachowana - w konkretnym sensie: indukcyjne kierowanie kłamstw od fałszywej wiedzy prywatnej w przesłankach do fałszywej wiedzy ogólnej w konkluzji.

Jako kryterium charakteru naukowego (rozgraniczenia) wysuwa się zasadę falsyfikacji: teoria musi mieć potencjalna szansa sprzeczne z faktami empirycznymi. Im więcej nieudanych prób obalenia, tym lepiej dla teorii. Falsyfikowalność to zatem logiczna relacja pomiędzy teorią a klasą potencjalnych falsyfikatorów (dotyczy to nie tylko czystej wiedzy empirycznej, ale także twierdzeń mentalnych). Próba rehabilitacji fałszywej teorii prowadzi, zdaniem Poppera, do dogmatyzmu. I własnie dlatego. Jeśli b wyprowadzono z teorii, ale w praktyce okazuje się, że nie jest to b, to trzeba w jakiś sposób wprowadzić do teorii twierdzenie o nie-b. Może to jednak prowadzić do teorii zawierającej sprzeczność, a to, jak wiadomo, prowadzi do tego, że z teorii można wywnioskować wszystko. Aby to zademonstrować proste stwierdzenie Przytoczę słowa Poppera z jego artykułu „Co to jest dialektyka”:

„Korzystając z naszych dwóch reguł, możemy to faktycznie pokazać. Powiedzmy, że są dwie sprzeczni przyjaciele paczki do znajomego, powiedz:
a) Teraz świeci słońce.
b) Słońce teraz nie świeci.
Z tych dwóch przesłanek można wyprowadzić dowolne stwierdzenie, np. „Cezar był zdrajcą”.
Z przesłanki (a) możemy wyprowadzić, zgodnie z regułą (1), następujący wniosek:
(c) Teraz świeci słońce. V Cezar był zdrajcą. Biorąc teraz za przesłanki (b) i (c), możemy ostatecznie wywnioskować, zgodnie z regułą (2):
d) Cezar był zdrajcą.
Jasne jest, że tą samą metodą można by wyciągnąć dowolne inne stwierdzenie, na przykład: „Cezar nie był zdrajcą”. Zatem z „2 + 2 = 5” i „2 + 2 nie = 5” możemy wyprowadzić nie tylko stwierdzenie, które chcielibyśmy, ale także jego zaprzeczenie, co mogło nie być częścią naszych planów.
Jeśli chodzi o weryfikację, Popper mówi, co następuje:
„Mogę to zilustrować dwoma znacząco różnymi przykładami ludzkich zachowań: zachowaniem osoby wpychającej dziecko do wody z zamiarem utopienia go oraz zachowaniem osoby poświęcającej swoje życie, aby ratować to dziecko. Każdy z tych przypadków można łatwo wyjaśnić zarówno w kategoriach freudowskich, jak i adlerowskich. Według Freuda pierwsza osoba cierpi na kompleks wyparcia (powiedzmy Edypa), druga natomiast osiągnęła sublimację. Według Adlera, pierwsza osoba cierpi na poczucie niższości (co powoduje, że udowadnia sobie, że jest w stanie odważyć się popełnić przestępstwo), to samo spotyka drugą (która ma potrzebę udowodnienia sobie, że jest w stanie popełnić przestępstwo). jest w stanie uratować dziecko). Nie przychodziła mi więc do głowy żadna forma ludzkiego zachowania, której nie dałoby się wyjaśnić na podstawie każdej z tych teorii. I właśnie ten fakt – że radzili sobie ze wszystkim i zawsze znajdowali potwierdzenie – w oczach ich zwolenników był najbardziej mocny argument na rzecz tych teorii. Zacząłem jednak podejrzewać, czy nie był to wyraz siły, a wręcz przeciwnie, słabości tych teorii?
<….>
Astrologia nie podlega testowaniu. Astrolodzy tak bardzo mylą się co do tego, co uważają za dowód potwierdzający, że nie zwracają uwagi na przykłady, które są dla nich niekorzystne. Co więcej, czyniąc swoje interpretacje i proroctwa wystarczająco niejasnymi, są w stanie wyjaśnić wszystko, co mogłoby obalić ich teorię, gdyby ona i wynikające z niej proroctwa były dokładniejsze. Aby uniknąć falsyfikacji, niszczą sprawdzalność swoich teorii. Jest to zwykła sztuczka wszystkich wróżbitów: przewidywać wydarzenia tak niejasno, aby przewidywania zawsze się sprawdzały, to znaczy, aby były niepodważalne.
Te dwa, o których wspomniałem wcześniej teorie psychoanalityczne należą do innej klasy. Są to po prostu teorie niesprawdzalne i niepodważalne. ... Nie oznacza to, że Freud i Adler w ogóle nie powiedzieli niczego prawidłowego... Oznacza to jednak, że te „obserwacje kliniczne”, w które naiwnie wierzą psychoanalitycy, potwierdzają ich teorię, nie potwierdzają tego w rzeczywistości w większym stopniu niż codzienne potwierdzenia znajdowane przez astrologów w ich praktyce. Jeśli chodzi o Freudowski opis Ja (Ego), Super-I (Super-Ego) i Id (Id), nie jest on w zasadzie bardziej naukowy niż opowieści Homera o Olimpie. Rozważane teorie opisują pewne fakty, ale czynią to w formie mitu. Zawierają bardzo interesujące założenia psychologiczne, ale wyrażają je w niesprawdzalnej formie.
—Popper K.R. Domysły i obalenia. Rozwój wiedzy naukowej. Londyn i Henley. Routledge i Kegan Paul, 1972.
Popperowi udało się zidentyfikować główne mankamenty programu pozytywizmu logicznego, właściwie zamknął problem istnienia wiarygodne źródło wiedza. Stare pytanie o to, co jest w środku aktywność poznawcza określenie: uczuć czy rozumu – okazało się błędnie sformułowane, gdyż Nie ma „czystych” faktów empirycznych. Zawsze opierają się na określonej teorii. Popper skłonił nas do zastanowienia się nad naturą wiedzy teoretycznej i rolą indukcji w jej powstaniu. Głównym celem naukowca jest stawianie ryzykownych hipotez, których falsyfikacja zmusza do stawiania nowych problemów i hipotez jeszcze bardziej ryzykownych.
Do wad tradycyjnie zalicza się fakt, że nigdy nie doszło do konsekwentnego wdrażania zasady falsyfikacji w rzeczywistej praktyce naukowej. Prawdziwy naukowiec, w obliczu sprzeczności, nawet po pewnym czasie nie porzuci swojej teorii, ale dowie się o przyczynach konfliktu teorii z faktami, będzie szukał możliwości zmiany niektórych parametrów teorii, że znaczy, że go uratuje, co jest zasadniczo zabronione w metodologii Poppera.

*) Ogólnie rzecz biorąc, o ile pamiętam, sam Karl Popper w ogóle nie miał wykształcenia humanistycznego, raczej był blisko matematyki i Fizyka teoretyczna jak zresztą wielu członków koła wiedeńskiego.

Słowo „fałszowanie” pochodzi od łacińskich słów „facio”, co oznacza „robić” i „fałszywie” – „fałszywie”. Pojęcie to stosowane jest w różnych sektorach życia ludzkiego. Na przykład istnieje termin „fałszowanie towarów”. Działanie to ma na celu wprowadzenie konsumentów w błąd i stanowi podrabianie produktu w celach osobistych.

Zasadą falsyfikacji jest weryfikacja fałszywości teorii za pomocą analizy teoretycznej, bo termin ten został wprowadzony do obiegu naukowego przez Poppera.

Zasada falsyfikacji sugeruje, że tylko te teorie, które w zasadzie można obalić, można uznać za naukowe. Innymi słowy, można udowodnić, że hipoteza naukowa jest fałszywa. Weryfikacja i falsyfikacja są formalnie procedurami symetrycznymi. To drugie wiąże się z rozbieżnością między dedukcją a indukcją.

Zasada falsyfikacji ma zastosowanie tylko do izolowanych twierdzeń empirycznych. Można je odrzucić, jeśli dostępne są konkretne wyniki eksperymentów lub z powodu niezgodności z podstawowymi teoriami. Jednak łącząc wiele hipotez w jedną teorię, dość trudno jest znaleźć ich obalenie, gdyż dopuszcza się pewne korekty niektórych fragmentów testowanej teorii na podstawie wyników eksperymentu. Jednocześnie istnieje potrzeba utrwalania odrzuconych pomysłów do czasu ukształtowania założeń skuteczniejszych – bardziej alternatywnych, które mogą zapewnić realny postęp w rozumieniu świata.

Zasada fałszowania ma również wady. Jednym z najważniejszych jest stanowisko dotyczące relacji pomiędzy względnością a. W tym przypadku prawda wiedzy ma charakter względny, jednocześnie zaś fałsz może nabrać charakteru absolutnego.

Tak jak fałszerstwa nie da się zweryfikować, tak fałszerstwa nie da się sfałszować. Innymi słowy, systemów tych nie można udowodnić ani obalić na podstawie ich własnej bazy dowodów.

Zasada falsyfikacji jest logicznym wnioskiem neopozytywistycznej postawy wobec realizowania wszystkiego, łącznie z wiedza filozoficzna.

Główne idee reprezentujące redukcję filozofii do zasady weryfikacji, redukcję wiedzy filozoficznej do analizy logicznej język naukowy, interpretację matematyki i logiki jako formalnych przemian naukowych, sformułowali uczestnicy Wiedeńskiego Koła Matematyków i Logików. Idee te stały się bardzo popularne w latach trzydziestych i czterdziestych.

W szczególności zasada weryfikacji została uzasadniona przez Schlicka (przewodniczącego koła) i wymagała, aby każde sensowne stwierdzenie naukowe sprowadzać do zestawu propozycji protokołów, które należy zweryfikować empirycznie. Te propozycje, które nie poddają się tej procedurze, to znaczy nie są do niej zredukowane, uważane są za teorie pozbawione jakiegokolwiek znaczenia.

Metodologię pozytywizmu logicznego zastąpiono zespołem koncepcji metodologicznych, który nie jest wyjątkowy kierunek filozoficzny, szkoła lub prąd. Postpozytywizm jest etapem filozofii naukowej. Jej początek wiąże się z publikacją pracy metodologicznej Poppera i książki Kuhna.

Osobliwość na tym etapie – znaczne zróżnicowanie koncepcji metodologicznych, a także ich wzajemna krytyka. Postpozytywizm uznał, że w historia naukowa rewolucyjne i znaczące zmiany są nieuniknione. Prowadzą do rewizji wiedzy wcześniej uzasadnionej i uznanej. Popper doszedł do wniosku, że logika indukcyjna nie istnieje. Pod tym względem próba przełożenia prawdy z poziomu empirycznego na poziom teoretyczny jest beznadziejna. Tym samym Popper wskazuje na obecność w ramach logiki dedukcyjnej dedukcji destrukcyjnej, czyli zasady falsyfikacji.

Weryfikacja – (łac. Verificatio – dowód, potwierdzenie) pojęcie stosowane w logice i metodologii nauki do określenia procesu ustalania prawdziwości twierdzeń naukowych w wyniku ich empirycznej weryfikacji. Rozróżnia się weryfikację bezpośrednią – jako bezpośrednią weryfikację stwierdzeń tworzących dane obserwacyjne oraz weryfikację pośrednią – jako ustalenie logicznych relacji pomiędzy stwierdzeniami pośrednio i bezpośrednio weryfikowalnymi. Oświadczenia naukowe zawierające opracowane koncepcje teoretyczne, odnoszą się do stwierdzeń pośrednio weryfikowalnych. Należy także rozróżnić weryfikację jako faktyczny proces sprawdzania prawdziwych stwierdzeń od weryfikowalności, czyli tzw. możliwość weryfikacji, jej warunki. Przedmiotem badań logicznych i metodologicznych jest analiza warunków i schematów sprawdzalności.

Termin weryfikacja upowszechnił się w związku z koncepcją analizy języka nauki w pozytywizmie logicznym, która sformułowała tzw. zasadę weryfikacji, czyli weryfikowalności. Zgodnie z tą zasadą każde sensowne naukowo stwierdzenie na temat świata musi dać się sprowadzić do zestawu tak zwanych założeń protokołu, które ustalają daną „liczbę doświadczeń”. Zatem epistemologiczną podstawą zasady weryfikacji była fenomenalistyczna, wąsko empiryczna doktryna, zgodnie z którą poznanie nie może wykraczać poza granice doświadczenia zmysłowego. Podstawą takiej redukowalności dla pozytywistów logicznych Koła Wiedeńskiego była koncepcja wysunięta przez L. Wittgensteina w „Traktacie Logiczno-Filozoficznym” o możliwości przedstawienia każdego sensownego twierdzenia o świecie w funkcji prawdziwości twierdzeń elementarnych , co było w istocie absolutyzacją formalizmu rachunku zdań logiki matematycznej.

Wyraźne epistemologiczne i porażka metodologiczna Zasada sprawdzalności, sprowadzająca wiedzę o świecie do „czystego doświadczenia” i pozbawiająca naukowego znaczenia twierdzenia, które nie są bezpośrednio weryfikowalne przez doświadczenie, zmusiła jej zwolenników do przyjęcia osłabionej wersji tej zasady, polegającej na zastąpieniu koncepcji ścisłego i weryfikacja wyczerpująca z koncepcją weryfikacji częściowej i pośredniej, czyli potwierdzenia.

We współczesnej literaturze logiczno-metodologicznej prymitywny „weryfikacjonizm” jest ostro krytyczny. Weryfikację uważa się za moment w złożonym, sprzecznym procesie rozwoju wiedzy naukowej, będący wynikiem wieloaspektowego związku między konkurującymi teoriami a danymi ich testów eksperymentalnych.

Falsyfikacja to procedura naukowa, która ustala fałszywość hipotezy lub teorii w wyniku testów eksperymentalnych lub teoretycznych. Pojęcie falsyfikacji należy odróżnić od zasady falsyfikowalności, która została zaproponowana przez Poppera jako kryterium oddzielające naukę od „metafizyki” (jako alternatywa dla zasady sprawdzalności głoszonej przez empiryzm logiczny).

Pojedyncze hipotezy empiryczne można bezpośrednio falsyfikować i odrzucać na podstawie odpowiednich danych eksperymentalnych lub z powodu niezgodności z podstawowymi teoriami naukowymi. Jednak systemy hipotez połączone w teorie naukowe można całkowicie sfałszować tylko w rzadkich przypadkach. Systemowo-hierarchiczny charakter organizacji współczesnej wiedzy naukowej komplikuje i utrudnia testowanie rozwiniętych i abstrakcyjnych teorii. Testowanie takich układów teoretycznych wiąże się z wprowadzaniem dodatkowych modeli i hipotez, a także opracowywaniem teoretycznych modeli układów eksperymentalnych itp. Problemy pojawiające się w procesie testowania, spowodowane rozbieżnością przewidywań teoretycznych z wynikami eksperymentów, można w zasadzie rozwiązać poprzez odpowiednie dostosowanie niektórych fragmentów testowanego układu teoretycznego. W przypadku teorii falsyfikacji najczęściej konieczna jest teoria alternatywna: tylko ona (a nie same wyniki eksperymentów) jest w stanie sfalsyfikować testowaną teorię. Zatem tylko w przypadku istnienia teorii rzeczywiście stanowiącej dalszy krok w rozumieniu świata odrzucenie dotychczasowej teorii naukowej jest metodologicznie uzasadnione.

Hipotezy, jako twierdzenia naukowe, muszą spełniać warunek fundamentalnej weryfikowalności, co oznacza, że ​​posiadają właściwości falsyfikowalności (obalenia) i weryfikowalności (potwierdzenia). Jednakże obecność takich właściwości jest warunkiem koniecznym, ale niewystarczającym dla naukowego charakteru hipotezy. Właściwości te nie mogą więc być traktowane jako kryterium rozgraniczenia twierdzeń naukowych i „metafizycznych”. Właściwości falsyfikowalności dość ściśle oddają przypuszczalny charakter hipotezy naukowej. Ponieważ te ostatnie są stwierdzeniami o ograniczonej ogólności, mogą zarówno dopuszczać, jak i bezpośrednio lub pośrednio zabraniać pewnego stanu rzeczy w świecie fizycznym. Ograniczając uniwersalność dotychczasowej wiedzy, a także identyfikując warunki, w jakich możliwe jest zachowanie częściowej uniwersalności danego twierdzenia o prawach, właściwość falsyfikowalności zapewnia stosunkowo nieciągły charakter rozwoju wiedzy naukowej.

Kryterium statusu naukowego teorii jest jej sprawdzalność i fundamentalna falsyfikowalność.

Istnieje kilka kryteriów rozróżnienia idei naukowych i pseudonaukowych. W latach dwudziestych XX wieku Filozofowie neopozytywistyczni zaproponowali koncepcję weryfikacji wiedzy naukowej. Za kryterium odróżnienia wiedzy naukowej od wiedzy nienaukowej neopozytywiści uznawali weryfikację, czyli tzw. potwierdzenie eksperymentalne. Twierdzenia naukowe mają sens, ponieważ można je zweryfikować w oparciu o doświadczenie; twierdzenia, których nie można zweryfikować, są bez znaczenia. Twierdzenia naukowe są tym lepiej uzasadnione, im więcej faktów je potwierdza. Za pomocą procedury weryfikacyjnej neopozytywiści zamierzali oczyścić naukę ze wszelkich twierdzeń pozbawionych sensu i zbudować model nauki idealny z punktu widzenia logiki. Jest oczywiste, że w modelu neopozytywistycznym nauka została zredukowana do wiedzy empirycznej, stwierdzeń o faktach potwierdzonych doświadczeniem.

Koncepcja weryfikacji wiedzy naukowej została poddana krytyce zaraz po jej pojawieniu się. Istota postanowień krytycznych sprowadzała się do stwierdzenia, że ​​nauka nie może rozwijać się wyłącznie w oparciu o doświadczenie, gdyż zakłada uzyskiwanie wyników, które są nieredukowalne do doświadczenia i nie można z niego bezpośrednio wywnioskować. W nauce istnieją stwierdzenia dotyczące faktów z przeszłości, sformułowania ogólnych praw, których nie można zweryfikować za pomocą kryteriów weryfikacji. Ponadto sama zasada sprawdzalności jest nieweryfikowalna, tj. należy ją uznać za bezsensowną i podlegającą wykluczeniu z systemu twierdzeń naukowych.

K. Popper w swojej koncepcji krytycznego racjonalizmu zaproponował inne kryterium odróżnienia wiedzy naukowej od wiedzy nienaukowej – falsyfikację. Teoretyczne stanowisko krytycznego racjonalizmu rozwinęło się w polemice z neopozytywizmem. K. Popper argumentował zatem, że postawa naukowa jest przede wszystkim postawą krytyczną. Testowanie hipotezy pod kątem ważności naukowej nie powinno polegać na poszukiwaniu faktów potwierdzających, ale na próbie jej obalenia. Falsyfikowalność jest zatem utożsamiana z falsyfikowalnością empiryczną. Z ogólnych założeń teorii wyprowadzane są konsekwencje, które można skorelować z doświadczeniem. Następnie te implikacje są testowane. Odrzucenie jednej z konsekwencji teorii falsyfikuje cały system. „Za kryterium demarkacji należy uznać nieweryfikowalność i falsyfikowalność systemu... Od system naukowy Domagam się, aby miał taką formę logiczną, która pozwalałaby na wyodrębnienie go w sensie negatywnym: dla empirycznego systemu naukowego musi istnieć możliwość obalenia go przez doświadczenie” – przekonywał K. Popper. Jego zdaniem naukę należy rozumieć jako system hipotez, domysłów i przewidywań, które stosuje się tak długo, jak długo wytrzymują one testy empiryczne.

Dlatego K. Popper proponuje analizę nauki na poziom teoretyczny, jako integralnego systemu, a nie do potwierdzania poszczególnych stwierdzeń. Jego zdaniem każda teoria, jeśli twierdzi, że jest naukowa, musi w zasadzie zostać obalona przez doświadczenie. Jeżeli teoria jest skonstruowana w taki sposób, że jest w zasadzie niepodważalna, to nie można jej uznać za naukową.

Wykłady: Weryfikacja i falsyfikacja, Wykład X

Demarkacja w nauce – określenie granic pomiędzy empirycznym a nauki teoretyczne, nauka i filozofia, wiedza naukowa i pozanaukowa.

Weryfikacja, sprawdzalność(łac. zweryfikować- udowodnić prawdę) to koncepcja metodologii naukowej, charakteryzująca możliwość ustalenia prawdziwości twierdzeń naukowych w wyniku ich empirycznej weryfikacji. (Mikeshina)

Zasada weryfikacji: twierdzenie jest naukowe tylko wtedy, gdy można je zweryfikować, tj. jego prawdziwość można formalnie ustalić na podstawie obserwacji.

Jeśli twierdzenia nie można zweryfikować, jest ono nienaukowe.

Weryfikacja- weryfikacja, weryfikowalność, metoda potwierdzania za pomocą dowodu wszelkich teoretycznych założeń, algorytmów, programów i procedur poprzez porównanie ich z danymi, algorytmami i programami eksperymentalnymi (referencyjnymi lub empirycznymi). Zasadę weryfikacji zaproponowało Koło Wiedeńskie.

Karl Popper (1902-1994) – austriacki i brytyjski filozof i socjolog. Czasami brał udział w pracach „Koła Wiedeńskiego”, ale nie zgadzał się z głównymi ideami neopozytywizmu - redukcjonistyczną interpretacją wiedzy teoretycznej, zasadą weryfikacji, negatywne nastawienie do roli idee filozoficzne w rozwoju nauki.

Jeden z centralne idee filozofia nauki polega według Poppera na znalezieniu kryterium rozgraniczającego naukę od nienauki, dla czego zaproponował zasadę falsyfikowalności jako podstawową falsyfikowalność każdej teorii naukowej . Teorie naukowe zawsze mają swój własny przedmiot i własne granice, dlatego muszą być zasadniczo falsyfikowalne.

Tylko takie systemy wiedzy można zaliczyć do teorii naukowych, dla których można znaleźć „potencjalnych falsyfikatorów”, tj. stanowiska sprzeczne z teoriami, których prawdziwość ustala się w drodze procedur eksperymentalnych. Studia naukowe prawdziwy świat i dąży do uzyskania prawdziwego opisu świata. Droga do takiej wiedzy wiedzie przez stawianie hipotez, konstruowanie teorii, znajdowanie ich obaleń i podążanie w stronę nowych teorii. Postęp nauki polega na sukcesywnym zastępowaniu się teorii przez ich obalanie i stawianie nowych problemów. Tym samym Popper uznał proces rozwoju wiedzy naukowej za jeden z przejawów ewolucji historycznej, dokonując między nimi paraleli ewolucja biologiczna i rozwój wiedzy naukowej.

Kolejną istotną cechą koncepcji rozwoju wiedzy naukowej Poppera jest antyindukcjonizm: ostro krytykuje on poznawcze znaczenie indukcji, a metodę konstruowania nowych hipotez uważa za metodę rozwijania wiedzy naukowej. Według Poppera wszelka wiedza naukowa jest hipotetyczna, domniemana i obarczona błędami. Teza o fundamentalnej omylności wiedza ludzka otrzymał nazwę fallibilizm.

Pod koniec lat 60. Popper wysunął oryginalną teorię trzech światów: fizycznego (byty fizyczne), mentalnego (stany duchowe człowieka, świadomość i nieświadomość) oraz wiedzy obiektywnej (teorie i problemy naukowe, mity wyjaśniające, dzieła sztuki), nieredukowalnych do nawzajem. Generowanie nowych idei, hipotez i teorii jest wynikiem interakcji wszystkich trzech światów.

Krytyka koncepcji Poppera

Popperowska koncepcja wzrostu wiedzy opisywała procesy powstawania nowych teorii raczej fenomenologicznie niż strukturalnie. Formułowane przez niego wymagania metodologiczne nie zawsze były spójne prawdziwa historia Nauki. Odkrycie faktów empirycznych, które zaprzeczają wnioskom teorii, zdaniem Poppera, jest jej falsyfikacją i sfałszowaną teorię należy odrzucić. Ale, jak pokazuje historia nauki, w tym przypadku nie odrzuca się teorii, zwłaszcza jeśli jest to teoria fundamentalna. Stałość podstawowych teorii w odniesieniu do poszczególnych fałszujących faktów została uwzględniona w koncepcji programów badawczych opracowanej przez I. Lakatosa.

Nazwano koncepcję metodologiczną Poppera „falsyfikacjonizm”- główną zasadą jest zasada falsyfikowalności:

  1. rozważania logiczne, weryfikacja twierdzeń naukowych, ich uzasadnienie za pomocą danych empirycznych, żadnej ogólnej propozycji nie da się w pełni uzasadnić za pomocą konkretnych propozycji, konkretne propozycje mogą ją jedynie obalić;
  2. asymetria pomiędzy potwierdzeniem i obaleniem twierdzeń ogólnych a krytyką indukcji jako metody uzasadniania wiedzy i doprowadził Poppera do falsyfikacjonizmu;
  3. zaprzecza istnieniu kryterium prawdy – kryterium, które pozwoliłoby nam odróżnić prawdę od całości naszych przekonań;
  4. ani konsystencja, ani potwierdzalność danymi empirycznymi nie mogą służyć jako kryterium prawdy, każdą fantazję można przedstawić w spójnej formie, a fałszywe przekonania często się potwierdzają;
  5. Jedyne, do czego jesteśmy zdolni, to wykryć kłamstwa w naszych poglądach i odrzucić je, zbliżając się w ten sposób do prawdy;
  6. wiedza naukowa i filozofia nauki opierają się na dwóch podstawowych ideach: idei, że nauka może i daje nam prawdę, oraz idei, że nauka uwalnia nas od błędów i uprzedzeń. Popper odrzucił pierwszą. Jednak druga koncepcja nadal zapewniała solidną epistemologiczną podstawę dla jego koncepcji metodologicznej.

„Falsyfikowalność” i „falsyfikacja”:

  1. Popper przeciwstawia teorię twierdzeniom empirycznym,
  2. całość wszystkich możliwych twierdzeń empirycznych lub „podstawowych” tworzy pewną empiryczną podstawę nauki,
  3. teorię naukową można wyrazić jako zbiór ogólnych stwierdzeń typu „Wszystkie tygrysy są w paski”, każdą teorię można uznać za zakazującą istnienia pewnych faktów lub mówiącą o fałszywości podstawowych twierdzeń,
  4. Popper nazywa podstawowe twierdzenia zakazanymi przez teorię „potencjalni fałszerze” teoria - bo jeśli zachodzi fakt zabroniony przez teorię i podstawowe zdanie go opisujące jest prawdziwe, to teorię uważa się za obaloną,

„Potencjalny” – gdyż zdania te mogą falsyfikować teorię, ale tylko wtedy, gdy zostanie ustalona ich prawdziwość – stąd pojęcie falsyfikowalności definiuje się następująco: „teoria jest falsyfikowalna, jeśli klasa jej potencjalnych falsyfikatorów nie jest pusta”. Z teorii T wyprowadza się podstawowe twierdzenie A, tj. Zgodnie z regułami logiki zdanie „Jeśli T, to A” jest prawdziwe. Twierdzenie A okazuje się fałszywe, ale potencjalny falsyfikator okazuje się prawdziwy. teorie inne niż A. Z „Jeśli T, to A” i „nie-A” następuje „nie-T”, tj. teoria T jest fałszywa i sfałszowana. Fałszywą teorię należy odrzucić.

Najważniejsza metoda wiedza naukowa - wiedza indukcyjna, naukowa zaczyna się od obserwacji i stwierdzeń faktów. Wynikiem falsyfikacjonizmu jest przyjęty przez Poppera schemat rozwoju wiedzy naukowej: przy głębokim przekonaniu filozoficznym nie mamy kryterium prawdy, jesteśmy w stanie wykryć i uwydatnić jedynie kłamstwa:

  1. rozumienie wiedzy naukowej jako zbioru domysłów na temat świata – domysłów, których prawdziwości nie można ustalić, ale można wykryć ich fałszywość;
  2. kryterium demarkacji jest tylko ta wiedza naukowa, która jest falsyfikowalna;
  3. Metodą nauki jest metoda prób i błędów.

Zmiana teorie naukowe, o wzroście ich prawdziwej treści, o rosnącym stopniu prawdopodobieństwa, to można odnieść wrażenie, że widzi postęp w ciągu kolejnych teorii T 1 ⇒ T 2 ⇒ T 3… Aby rozwiązać problemy, budujemy teorie , którego upadek rodzi nowe problemy i tak dalej. Dlatego ogólny schemat rozwoju nauki jest następujący:

Tutaj P 1 jest problemem początkowym; T 1, T 2,..., T n - teorie wysuwane w celu jego rozwiązania; jego - weryfikacja, falsyfikacja i eliminacja wysuwanych teorii; P 2 to nowy, głębszy i bardziej złożony problem pozostawiony nam przez wyeliminowane teorie.” Z tego diagramu jasno wynika, że ​​postęp nauki nie polega na gromadzeniu wiedzy, a jedynie na zwiększaniu głębi i złożoności problemów My rozwiązujemy.

Koncepcje Poppera a metodologia pozytywistyczna:

1) Źródło wiedzy. Pozytywiści logiczni - jedynym źródłem wiedzy jest percepcja zmysłowa, proces poznania rozpoczyna się zawsze od „czystej” obserwacji. Popper: nie ma podstawowego źródła: wiedza, każde źródło należy przyjąć z radością, każdą tezę można poddać krytycznej analizie, wiedza nie może zaczynać się od niczego – od tabula rasa – i nie może zaczynać się od obserwacji, postęp wiedzy polega głównie na modyfikacji wcześniejszych wiedza.

2) Podstawa empiryczna. Logiczni pozytywiści wyraźnie oddzielili wiedzę empiryczną od wiedzy teoretycznej i uznali język empiryczny za niewątpliwą solidną podstawę nauki. Popper: nie ma dychotomii empiryczno-teoretycznej: wszystkie terminy są teoretyczne, język Poppera zależy od teorii, jego propozycje można falsyfikować, nie służy on jako podstawa uzasadnienia nauki, ale jako umownie przyjęta podstawa do falsyfikacji teorii.

3) Demarkacja. Logiczni pozytywiści przyjęli sprawdzalność jako kryterium demarkacji. Popper – falsyfikowalność. Różnica: najwięcej widzą pozytywiści logiczni cecha charakterystyczna nauki w zakresie ważności jej postanowień. Popper - stara się podkreślić hipotetyczny i zawodny charakter stanowisk naukowych, ryzyko związane z rozwojem nauki - różnica prowadzi do dalszych głębokich rozbieżności pomiędzy obiema koncepcjami metodologicznymi.

4) Stosunek do filozofii: Logiczni pozytywiści starali się zdyskredytować i zniszczyć metafizykę. Popper zajmuje się problemem demarkacji, granica między nauką a metafizyką staje się dla niego niewyraźna. Bardziej dostrzega wpływ metafizyki na rozwój nauki. Logiczni pozytywiści: mają tendencję do unikania wszelkich twierdzeń metafizycznych, Popper buduje metafizyczną koncepcję „trzech światów”.

5) Metoda nauki: pozytywiści logiczni (?) indukcja: przejście od faktów do ich uogólnień. Popper odrzucił indukcję, stosował metodę prób i błędów, obejmującą jedynie rozumowanie dedukcyjne.

6) Model rozwój naukowy . Logiczni pozytywiści mogli przyjąć jedynie prymitywny kumulatyzm: każdy kolejny krok w rozwoju wiedzy polega na uogólnieniu poprzednich wyników: nie ma rewolucji pojęciowych, nie ma utraty wiedzy. Popperowski model rozwoju wiedzy nie jest kumulatywny: nie uznaje on żadnej akumulacji.

7) Cele filozofii nauki. Główne zadanie badań metodologicznych dla pozytywistów logicznych sprowadzało się do logicznej analizy języka nauki, do ustalenia apriorycznych standardów o charakterze naukowym. Główny cel jej koncepcji metodologicznej.

Logiczni pozytywiści Rudolfa Carnapa

Celem nauki jest „stworzenie podstawy dowodów empirycznych w postaci faktów naukowych, które należy rozpatrywać w języku nie dopuszczającym dwuznaczności i braku wyrazistości”.

  1. Język jest granicą myślenia.
  2. Jest tylko jeden świat – świat faktów i wydarzeń.
  3. Zdanie jest obrazem świata, ponieważ ma tę samą formę logiczną ze światem.
  4. Złożone zdania składają się z elementarnych zdań, które odnoszą się bezpośrednio do faktów.
  5. Najwyższy jest niewyrażony.

Carnap, wzorując się na Wittgensteinie i Russellu, za przedmiot filozofii nauki uważa analizę struktury wiedzy nauk przyrodniczych w celu wyjaśnienia podstawowych pojęć nauki za pomocą aparatu logiki matematycznej.

Wybór redaktorów
Na Uniwersytecie Państwowym w Petersburgu egzamin kreatywny jest obowiązkowym testem wstępnym umożliwiającym przyjęcie na studia stacjonarne i niestacjonarne w...

W pedagogice specjalnej wychowanie traktowane jest jako celowo zorganizowany proces pomocy pedagogicznej w procesie socjalizacji,...

Indywidualność to posiadanie zestawu pewnych cech, które pomagają odróżnić jednostkę od innych i ustalić jej...

z łac. individuum - niepodzielny, indywidualny) - szczyt rozwoju człowieka zarówno jako jednostki, jak i osoby oraz jako podmiotu działania. Człowiek...
Sekcje: Administracja Szkolna Od początku XXI wieku projektowanie różnych modeli systemu edukacji szkolnej staje się coraz bardziej...
Rozpoczęła się publiczna dyskusja na temat nowego modelu Unified State Exam in Literature Tekst: Natalya Lebedeva/RG Foto: god-2018s.com W 2018 roku absolwenci...
Podatek transportowy dla osób prawnych 2018-2019 nadal płacony jest za każdy pojazd transportowy zarejestrowany w organizacji...
Od 1 stycznia 2017 r. wszystkie przepisy związane z naliczaniem i opłacaniem składek ubezpieczeniowych zostały przeniesione do Ordynacji podatkowej Federacji Rosyjskiej. Jednocześnie uzupełniono Ordynację podatkową Federacji Rosyjskiej...
1. Ustawianie konfiguracji BGU 1.0 w celu prawidłowego rozładunku bilansu. Aby wygenerować sprawozdanie finansowe...