Hipoteza naukowa, weryfikacja i falsyfikacja. Weryfikacja i falsyfikacja teorii


Weryfikacja – (łac. Verificatio – dowód, potwierdzenie) pojęcie stosowane w logice i metodologii nauki do określenia procesu ustalania prawdziwości twierdzeń naukowych w wyniku ich empirycznej weryfikacji. Rozróżnia się weryfikację bezpośrednią – jako bezpośrednią weryfikację stwierdzeń tworzących dane obserwacyjne oraz weryfikację pośrednią – jako ustalenie logicznych relacji pomiędzy stwierdzeniami pośrednio i bezpośrednio weryfikowalnymi. Oświadczenia naukowe zawierające opracowane koncepcje teoretyczne, odnoszą się do stwierdzeń pośrednio weryfikowalnych. Należy także rozróżnić weryfikację jako faktyczny proces sprawdzania prawdziwych stwierdzeń od weryfikowalności, czyli tzw. możliwość weryfikacji, jej warunki. Przedmiotem badań logicznych i metodologicznych jest analiza warunków i schematów sprawdzalności.

Termin weryfikacja upowszechnił się w związku z koncepcją analizy języka nauki w pozytywizmie logicznym, która sformułowała tzw. zasadę weryfikacji, czyli weryfikowalności. Zgodnie z tą zasadą każde sensowne naukowo stwierdzenie na temat świata musi dać się sprowadzić do zestawu tak zwanych założeń protokołu, które ustalają daną „liczbę doświadczeń”. Zatem epistemologiczną podstawą zasady weryfikacji była fenomenalistyczna, wąsko empiryczna doktryna, zgodnie z którą poznanie nie może wykraczać poza granice doświadczenia zmysłowego. Podstawą takiej redukowalności dla pozytywistów logicznych Koła Wiedeńskiego była koncepcja wysunięta przez L. Wittgensteina w „Traktacie Logiczno-Filozoficznym” o możliwości przedstawienia każdego sensownego twierdzenia o świecie w funkcji prawdziwości twierdzeń elementarnych , co było w istocie absolutyzacją formalizmu rachunku zdań logiki matematycznej.

Wyraźne epistemologiczne i porażka metodologiczna Zasada sprawdzalności, sprowadzająca wiedzę o świecie do „czystego doświadczenia” i pozbawiająca naukowego znaczenia twierdzenia, które nie są bezpośrednio weryfikowalne przez doświadczenie, zmusiła jej zwolenników do przyjęcia osłabionej wersji tej zasady, polegającej na zastąpieniu koncepcji ścisłego i weryfikacja wyczerpująca z koncepcją weryfikacji częściowej i pośredniej, czyli potwierdzenia.

We współczesnej literaturze logiczno-metodologicznej prymitywny „weryfikacjonizm” jest ostro krytyczny. Weryfikację uważa się za moment w złożonym, sprzecznym procesie rozwoju wiedzy naukowej, będący wynikiem wieloaspektowego związku między konkurującymi teoriami a danymi ich testów eksperymentalnych.

Falsyfikacja to procedura naukowa, która ustala fałszywość hipotezy lub teorii w wyniku testów eksperymentalnych lub teoretycznych. Pojęcie falsyfikacji należy odróżnić od zasady falsyfikowalności, która została zaproponowana przez Poppera jako kryterium oddzielające naukę od „metafizyki” (jako alternatywa dla zasady sprawdzalności głoszonej przez empiryzm logiczny).

Pojedyncze hipotezy empiryczne można bezpośrednio falsyfikować i odrzucać na podstawie odpowiednich danych eksperymentalnych lub z powodu niezgodności z podstawowymi teoriami naukowymi. Jednak systemy hipotez połączone w teorie naukowe można całkowicie sfałszować tylko w rzadkich przypadkach. Systemowo-hierarchiczny charakter organizacji współczesnej wiedzy naukowej komplikuje i utrudnia testowanie rozwiniętych i abstrakcyjnych teorii. Testowanie takich układów teoretycznych wiąże się z wprowadzaniem dodatkowych modeli i hipotez, a także opracowywaniem teoretycznych modeli układów eksperymentalnych itp. Problemy pojawiające się w procesie testowania, spowodowane rozbieżnością przewidywań teoretycznych z wynikami eksperymentów, można w zasadzie rozwiązać poprzez odpowiednie dostosowanie niektórych fragmentów testowanego układu teoretycznego. W przypadku teorii falsyfikacji najczęściej konieczna jest teoria alternatywna: tylko ona (a nie same wyniki eksperymentów) jest w stanie sfalsyfikować testowaną teorię. Zatem tylko w przypadku istnienia teorii rzeczywiście stanowiącej dalszy krok w rozumieniu świata odrzucenie dotychczasowej teorii naukowej jest metodologicznie uzasadnione.

Hipotezy, jako twierdzenia naukowe, muszą spełniać warunek fundamentalnej weryfikowalności, co oznacza, że ​​posiadają właściwości falsyfikowalności (obalenia) i weryfikowalności (potwierdzenia). Jednakże obecność takich właściwości jest warunkiem koniecznym, ale niewystarczającym dla naukowego charakteru hipotezy. Właściwości te nie mogą więc być traktowane jako kryterium rozgraniczenia twierdzeń naukowych i „metafizycznych”. Właściwości falsyfikowalności dość ściśle oddają przypuszczalny charakter hipotezy naukowej. Ponieważ te ostatnie są stwierdzeniami o ograniczonej ogólności, mogą zarówno dopuszczać, jak i bezpośrednio lub pośrednio zabraniać pewnego stanu rzeczy w świecie fizycznym. Ograniczając uniwersalność dotychczasowej wiedzy, a także identyfikując warunki, w jakich możliwe jest zachowanie częściowej uniwersalności danego twierdzenia o prawach, właściwość falsyfikowalności zapewnia stosunkowo nieciągły charakter rozwoju wiedzy naukowej.

Będziemy używać pojęcia obalenia w jego zwykłym znaczeniu, które jest stosunkowo ugruntowane w epistemologii.

Choć pojęcie obalenia nie jest ani merytorycznie, ani przestrzennie precyzyjne, istnieje dość wyraźny rdzeń jego treści, który wyraźnie nie pokrywa się z treścią pojęcia falsyfikacji logicznej.

„Samo «fałszowanie» (w sensie Poppera) nie oznacza odrzucenia odpowiedniego twierdzenia” – pisze Lakatos. „Proste «fałszowania» (czyli anomalie) należy odnotowywać, ale nie trzeba na nie reagować”3.

Koncepcja falsyfikacji zakłada, zdaniem Poppera, istnienie (negatywnych) decydujących eksperymentów. Lakatos, ironicznie nazywając te eksperymenty „wielkimi”, zauważa, że ​​„decydujący eksperyment” to jedynie tytuł honorowy, który oczywiście można nadać pewnej anomalii, ale dopiero długo po zastąpieniu jednego programu innym.

Falsyfikacja nie uwzględnia także faktu, że napotykającą trudności teorię można przekształcić poprzez hipotezy pomocnicze i techniki podobne do zastępowania definicji rzeczywistych definicjami nominalnymi. „Żadne przyjęte podstawowe stwierdzenie samo w sobie nie daje naukowcowi prawa do odrzucenia teorii. Taki konflikt może stworzyć problem (mniej lub bardziej istotny), ale w żadnym wypadku nie może doprowadzić do „zwycięstwa”.

Można powiedzieć, że zastosowanie zasady falsyfikacji do różne części program badawczy jest inny. Zależy to także od etapu rozwoju takiego programu: nadal jest najnowszy; skutecznie przeciwstawia się atakowi anomalii, naukowiec może je całkowicie zignorować i kierować się nie anomaliami, ale pozytywną heurystyką swojego programu.

Niepowodzenie fałszerstwa. Według Poppera uzasadnienia teorii naukowych nie można osiągnąć poprzez obserwację i eksperyment. Teorie zawsze pozostają bezpodstawnymi założeniami. Nauka potrzebuje faktów i obserwacji nie do uzasadnienia, ale jedynie do testowania i obalania teorii, do ich falsyfikacji. Metodą nauki nie jest obserwacja i stwierdzenie faktów w celu ich późniejszego uogólnienia indukcyjnego, ale metoda prób i błędów. „Nie ma bardziej racjonalnego postępowania” – pisze Popper – „niż metoda prób i błędów – sugestie i obalenia: odważne wysuwanie teorii; próbowanie Najlepszym sposobem wykazać błędność tych teorii i ich tymczasowe uznanie, jeśli krytyka okaże się nieskuteczna.” Metoda prób i błędów jest uniwersalna: stosowana jest nie tylko w nauce, ale w całej wiedzy; stosują ją zarówno ameba, jak i Einstein.

Ostry kontrast Poppera pomiędzy weryfikacją a falsyfikacją, metodą indukcyjną a metodą prób i błędów nie jest jednak uzasadniony. Krytyka teorii naukowej, która nie osiągnęła swojego celu, czyli nieudanej próby falsyfikacji, jest osłabioną wersją pośredniej weryfikacji empirycznej.

Falsyfikacja jako procedura składa się z dwóch etapów:

Ustalenie prawdziwości związku warunkowego „jeśli A, to B”, gdzie B jest konsekwencją weryfikowalną empirycznie;

Ustalenie prawdziwości „fałszywego B”, tj. fałszywość B. Brak falsyfikacji oznacza niepowodzenie w stwierdzeniu fałszywości B. Wynikiem tego niepowodzenia jest probabilistyczny sąd: „Jest możliwe, że A jest prawdziwe, tj. W". Zatem niepowodzenie falsyfikacji jest rozumowaniem indukcyjnym, które ma następujący schemat:

„jeśli prawdą jest, że jeśli A, to B i fałszywe nie-B, to A” („jeśli prawdą jest, że jeśli A, to B i B, to A”)

Schemat ten pokrywa się ze schematem weryfikacji pośredniej. Niepowodzenie fałszerstwa jest jednak osłabioną weryfikacją: w przypadku. zwykła weryfikacja pośrednia zakłada, że ​​przesłanka B jest stwierdzeniem prawdziwym; w przypadku nieudanego fałszerstwa przesłanka ta stanowi jedynie wiarygodne stwierdzenie2. Zatem zdecydowana, ale nieskuteczna krytyka, którą Popper wysoko ceni i której się sprzeciwia jako niezależnej metody weryfikacji, jest w rzeczywistości jedynie osłabioną wersją weryfikacji.

Uzasadnienie pozytywne to zwykła pośrednia weryfikacja empiryczna, będąca rodzajem uzasadnienia absolutnego. Jego wynik: „Stwierdzenie A, którego konsekwencja została potwierdzona, jest uzasadnione”. Krytyczne uzasadnienie to uzasadnienie przez krytykę; jego wynik: „Twierdzenie A jest bardziej akceptowalne niż jego odpowiednik, twierdzenie B, ponieważ A wytrzymało ostrzejszą krytykę niż B”. Uzasadnienie krytyczne jest uzasadnieniem porównawczym: to, że propozycja A jest bardziej odporna na krytykę, a zatem bardziej uzasadniona niż propozycja B, nie oznacza, że ​​A jest prawdziwe lub nawet prawdopodobne.

W ten sposób Popper osłabia program indukcjonizmu na dwa sposoby:

Zamiast koncepcji uzasadnienia absolutnego wprowadza koncepcję uzasadnienia porównawczego;

Zamiast koncepcji weryfikacji (uzasadnienia empirycznego) wprowadza słabszą koncepcję falsyfikacji.

§ 4. Przykłady

Stronniczość przykładu. Dane empiryczne można wykorzystać w argumentacji jako przykłady, gdy fakt lub szczególny przypadek umożliwia uogólnienia, ilustracje, gdy wzmacnia już ustalone ogólne stanowisko, i modele, gdy zachęca do naśladowania.

Wykorzystanie faktów jako przykładów i ilustracji można uznać za jedną z możliwości uzasadnienia stanowiska poprzez potwierdzenie jego konsekwencji. Jednak jako takie są bardzo słabym środkiem potwierdzenia: nie można powiedzieć nic konkretnego na temat wiarygodności twierdzenia ogólnego na podstawie jednego faktu przemawiającego na jego korzyść.

Fakty użyte jako przykłady i ilustracje mają szereg cech odróżniających je od wszystkich faktów i przypadków szczególnych, które służą do potwierdzania ogólnych przepisów i hipotez. Przykłady i ilustracje są bardziej przekonujące lub mocniejsze niż inne fakty. Fakt lub konkretny przypadek wybrany jako przykład musi wyraźnie wyrażać tendencję do uogólnień. Tendencyjny przykładowy fakt znacząco odróżnia go od wszystkich innych faktów. Ściśle rzecz biorąc, przykładowy fakt nigdy nie jest czystym opisem jakiegoś rzeczywistego stanu rzeczy. Mówi nie tylko o tym, co jest, ale także częściowo i pośrednio o tym, co powinno być. Łączy w sobie funkcję opisu z funkcją oceny (przepisu), choć niewątpliwie dominuje w niej ta pierwsza z nich. Okoliczność ta wyjaśnia powszechne stosowanie przykładów i ilustracji w procesach argumentacyjnych, przede wszystkim w argumentacji humanitarnej i praktycznej, a także w codziennej komunikacji.

Przykładem jest fakt lub przypadek szczególny, używany jako punkt wyjścia do późniejszego uogólnienia i wzmocnienia dokonanego uogólnienia.

Główny cel przykładu. Przykłady mogą służyć jedynie do wsparcia stwierdzeń opisowych i jako punkt wyjścia do opisowych uogólnień. Nie są jednak w stanie: poprzeć ocen i stwierdzeń zmierzających do oceny, tj. podobne do przysięg, przyrzeczeń, zaleceń, deklaracji itp.; służyć jako materiał źródłowy do uogólnień oceniających i podobnych; normy wspierające, które są szczególnym przypadkiem stwierdzeń oceniających. To, co czasami jest przedstawiane jako przykład, mający w jakiś sposób wzmocnić ocenę, normę itp., w rzeczywistości jest przykładem. Różnica między przykładem a próbką jest znacząca. Przykładem jest stwierdzenie opisowe, które mówi o jakimś fakcie, a próbką jest stwierdzenie oceniające, które odnosi się do konkretnego przypadku i ustala określony standard, ideał itp.

Przedstawiając fakty jako przykłady czegoś, mówca lub pisarz zwykle wyjaśnia, że ​​mówimy o przykładach, po których powinno nastąpić uogólnienie lub morał. Ale nie zawsze tak się dzieje.

Fakty użyte jako przykład mogą być niejednoznaczne: mogą sugerować różne uogólnienia, a każda kategoria czytelników może z nich wyprowadzić własną, bliską jej interesom moralność; Nie zawsze możliwe jest wytyczenie wyraźnych granic między przykładem, ilustracją i próbką.

Ten sam zestaw przytoczonych faktów może być przez jednych interpretowany jako przykład prowadzący do uogólnienia, przez innych jako ilustracja tego, co już wiadomo ogólne stanowisko, po trzecie – jako wzór godny naśladowania.

Raport na temat filozofii nauki i technologii na temat:

„Zasada weryfikacji i fałszowania Karla Poppera”

(Jakimenko A.A., grupa EAPU-07m --- to za jego zgodą)

1. Ołów
2. Zasada weryfikacji w pozytywizmie
3. Ograniczenie kryterium weryfikacji
4. Kryteria falsyfikacyjne K. Poppera
5. Wniosek
6. Lista źródeł

Wstęp

Karl Raimund Popper (1902-1994) uważany jest za jednego z najwybitniejszych filozofów nauki XX wieku. Był także filozofem społecznym i politycznym wielkiej rangi, deklarującym się „krytycznym racjonalistą”, zagorzałym przeciwnikiem wszelkich form sceptycyzmu, konwencjonalizmu i relatywizmu w nauce i sprawach ludzkich w ogóle, zagorzałym obrońcą „społeczeństwa otwartego” i nieprzejednany krytyk totalitaryzmu we wszystkich jego postaciach. Jedną z wielu wybitnych cech filozofii Poppera jest zakres jego intelektualnego wpływu. Ponieważ w twórczości Poppera można odnaleźć elementy epistemologiczne, społeczne i ściśle naukowe, podstawowa jedność jego wizji i metody filozoficznej zostaje w dużej mierze rozproszona. Praca ta śledzi wątki spajające filozofię Poppera, a także ukazuje stopień aktualności koncepcji Karla Poppera dla współczesnej myśli i praktyki naukowej.

Zasada weryfikacji w pozytywizmie

Celem nauki jest, zdaniem neopozytywizmu, stworzenie bazy danych empirycznych w postaci faktów naukowych, które należy przedstawić językiem nie dopuszczającym dwuznaczności i braku wyrazistości. Jako taki język empiryzm logiczny proponował logiczno-matematyczny aparat pojęciowy, wyróżniający się dokładnością i przejrzystością opisu badanych zjawisk. Założono, że terminy logiczne powinny wyrażać znaczenia poznawcze obserwacje i eksperymenty w zdaniach uznawanych przez naukę empiryczną za zdania w „języku nauki”.
Wraz z wprowadzeniem „kontekstu odkrycia” pozytywizm logiczny podjął próbę przejścia na analizę twierdzeń empirycznych pod kątem ich wyrażalności za pomocą pojęć logicznych, wykluczając tym samym z logiki i metodologii zagadnienia związane z odkrywaniem nowej wiedzy .
Jednocześnie epistemologii empirycznej nadano status podstawy wiedzy naukowej, tj. Logiczni pozytywiści byli przekonani, że empiryczna podstawa wiedzy naukowej tworzona jest wyłącznie na podstawie języka obserwacji. Stąd ogólne założenie metodologiczne, które zakłada redukcję sądów teoretycznych do twierdzeń obserwacyjnych.
W 1929 roku Koło Wiedeńskie ogłosiło sformułowanie empirycznego kryterium znaczenia, które stało się pierwszym z szeregu takich sformułowań. Koło Wiedeńskie stwierdziło: znaczeniem propozycji jest sposób jej weryfikacji.
Zasada weryfikacji przewidywała uznanie za mającą znaczenie naukowe jedynie wiedzy, której treść można uzasadnić propozycjami protokołów. Zatem fakty naukowe w doktrynach pozytywizmu mają charakter absolutyzujący i mają prymat nad innymi elementami wiedzy naukowej, gdyż w ich mniemaniu decydują o sensownym znaczeniu i prawdziwości propozycji teoretycznych.
Inaczej mówiąc, zgodnie z koncepcją pozytywizmu logicznego „istnieje czyste doświadczenie, wolne od zniekształcających wpływów aktywności poznawczej podmiotu oraz adekwatny do tego doświadczenia język; zdania wyrażane tym językiem są bezpośrednio weryfikowane przez doświadczenie i nie zależą od teorii, ponieważ słownictwo użyte do ich powstania nie zależy od słownictwa teoretycznego.”

Ograniczenie kryterium weryfikacji

Kryterium weryfikacji twierdzeń teoretycznych szybko ujawniło swoje ograniczenia, wywołując liczną krytykę. Wąskość metody weryfikacji dotknęła przede wszystkim filozofię, gdyż okazało się, że propozycje filozoficzne są nieweryfikowalne, gdyż pozbawione są znaczenia empirycznego. H. Putnam wskazuje na tę stronę mankamentów doktryny pozytywizmu logicznego.
Przeciętna osoba nie może „zweryfikować” szczególnej teorii względności. Rzeczywiście, obecnie przeciętny człowiek nie uczy się nawet szczególnej teorii względności ani (stosunkowo elementarnej) matematyki niezbędnej do jej zrozumienia, chociaż podstawy tej teorii są wykładane na niektórych uniwersytetach w ramach wprowadzającego kursu fizyki. Przeciętny człowiek polega na naukowcu, który dostarcza kompetentnej (i społecznie akceptowanej) oceny teorii tego typu. Naukowiec jednak, biorąc pod uwagę niestabilność teorii naukowych, najwyraźniej nawet tak ugruntowanej teorii naukowej, jak szczególna teoria względności, nie zakwalifikuje jako „prawdy” tout court.
Jednakże werdykt społeczności naukowej jest taki, że szczególna teoria względności jest „sukcesem” – w rzeczywistości, podobnie jak elektrodynamika kwantowa, jest teorią bezprecedensowo udaną, dokonującą „udanych przewidywań” i popartą „szerokim zakresem eksperymentów”. I tak naprawdę na tych decyzjach opierają się inni ludzie tworzący społeczeństwo. Różnica między tym przypadkiem a przypadkami zinstytucjonalizowanych norm weryfikacji, o których wspomnieliśmy powyżej, polega (poza niezobowiązującym przymiotnikiem „prawdziwy”) na specjalnej misji ekspertów zaangażowanych w te ostatnie przypadki oraz zinstytucjonalizowanej czci tych ekspertów .
Ale ta różnica jest niczym innym jak przykładem podziału pracy intelektualnej (nie mówiąc już o stosunkach władzy intelektualnej) w społeczeństwie. Decyzja, że ​​szczególna teoria względności i elektrodynamika kwantowa są „najbardziej udanymi z nich”. teorie fizyczne„że mamy” to decyzja podjęta przez te władze, które są zdefiniowane przez społeczeństwo i których władza jest zapisana w praktyce i rytuale, a zatem zinstytucjonalizowana.
Pierwszym, który zwrócił uwagę na słabość pozytywistycznej doktryny logicznej analizy wiedzy naukowej, był K. Popper. Zauważył w szczególności, że nauka zajmuje się głównie przedmiotami wyidealizowanymi, które z punktu widzenia pozytywistycznego rozumienia wiedza naukowa, nie można zweryfikować za pomocą klauzul protokołu i dlatego uznaje się je za pozbawione znaczenia. Ponadto wiele praw nauki wyrażonych w formie zdań jest nieweryfikowalnych. Minimalna prędkość wymagana do pokonania grawitacji i wejścia w przestrzeń okołoziemską wynosi 8 km/s, gdyż ich weryfikacja wymaga wielu propozycji protokołów prywatnych. Pod wpływem krytyki pozytywizm logiczny osłabił swoje stanowisko, wprowadzając do swojej doktryny zapis o częściowej potwierdzalności empirycznej. Logicznie wynikało, że jedynie terminy i twierdzenia empiryczne wyrażone za ich pomocą są wiarygodne, inne koncepcje i twierdzenia bezpośrednio związane z prawami nauki uznawano za sensowne (możliwe do potwierdzenia) ze względu na ich odporność na częściową weryfikację.
Tym samym wysiłki pozytywizmu zmierzające do zastosowania aparatu logicznego do analizy wiedzy wyrażonej w formie zdań narracyjnych nie przyniosły rezultatów znaczących naukowo; napotkali problemy, których nie dało się rozwiązać w ramach przyjętego przez niego redukcjonistycznego podejścia do poznania i wiedzy.
W szczególności nie jest jasne, dlaczego nie wszystkie twierdzenia naukowe stają się podstawowymi, a tylko niektóre? Jakie jest kryterium ich wyboru? Jakie są ich zdolności heurystyczne i perspektywy epistemologiczne? Jaki jest mechanizm architektoniki wiedzy naukowej?

Kryterium falsyfikacji K. Poppera

K. Popper zaproponował kolejne kryterium prawdziwości twierdzenia naukowego – falsyfikację.
Nauka, według Poppera, jest systemem dynamicznym, który wymaga ciągłych zmian i wzrostu wiedzy. Stanowisko to wyznaczyło odmienną rolę filozofii nauki w wiedzy naukowej: odtąd zadanie filozofii zostało zredukowane nie do uzasadniania wiedzy, jak miało to miejsce w neopozytywizmie, ale do wyjaśniania jej zmian w oparciu o metodę krytyczną. I tak w „logice odkrycia naukowego” Popper pisze: „ centralny problem teoria wiedzy zawsze była i pozostaje problemem wzrostu wiedzy” oraz „...najlepszym sposobem badania wzrostu wiedzy jest badanie wzrostu wiedzy naukowej”. Jako główne narzędzie metodologiczne służące do tego celu, Popper wprowadza zasadę falsyfikacji, której znaczenie sprowadza się do weryfikacji twierdzeń teoretycznych poprzez doświadczenie empiryczne.Dlaczego falsyfikowalność jest lepsza od weryfikowalności i jaka jest logika rozumowania Poppera?
Deklarując, że zadaniem metodologii jest badanie mechanizmów wzrostu wiedzy naukowej, Popper opiera się na rozumianej i postrzeganej rzeczywistości składającej się na sferę wiedzy naukowej. W jego głębokim przekonaniu nauka nie może zajmować się prawdą, gdyż działalność naukowo-badawcza sprowadza się do stawiania hipotez na temat świata, założeń i domysłów na jego temat, budowania probabilistycznych teorii i praw; tak właśnie jest wspólna ścieżka wiedzy o świecie i adaptacji naszych wyobrażeń na jego temat. Byłoby zatem, delikatnie mówiąc, niepoważnym uznawać niektóre z tych idei za prawdziwe, a odrzucać inne, tj. Nie ma uniwersalnego mechanizmu, który pozwalałby zidentyfikować z różnorodności istniejącej wiedzy, które z nich są prawdziwe, a które fałszywe.
Dlatego zadaniem filozofii jest znalezienie drogi, która pozwoli nam zbliżyć się do prawdy. W koncepcji logiczno-metodologicznej Poppera istnieje taki mechanizm w postaci zasady falsyfikacji. K. Popper uważa, że ​​naukowe mogą być tylko te postanowienia, których obalają dane empiryczne. Falsyfikowalność teorii przez fakty naukowe jest zatem uznawana w „logice odkryć naukowych” za kryterium naukowego charakteru tych teorii.
Na pierwszy rzut oka stanowisko to odbierane jest jako nonsens: gdyby okazało się, że wszystkie te spekulatywne konstrukcje, które budujemy na temat świata, obala nasze własne doświadczenie empiryczne, to w oparciu o zdrowy rozsądek należy je uznać za fałszywe i odrzucić jako nie do utrzymania. Jednakże rozumowanie Poppera opiera się na innym sensie logicznym.
Możesz udowodnić wszystko. To właśnie tam manifestowała się na przykład sztuka sofistów. Popper uważa, że ​​naukowe stwierdzenia stwierdzające obecność przedmioty materialne, nie należą do klasy potwierdzonych doświadczeniem, lecz wręcz przeciwnie, obalonych przez doświadczenie, gdyż logika porządku świata i nasze myślenie podpowiadają nam, że teorie naukowe, obalone przez fakty, faktycznie niosą ze sobą informację o obiektywnie istniejącym świat.
Ten sam mechanizm metodologiczny, który pozwala wiedzy naukowej zbliżyć się do prawdy, tj. zasada falsyfikacji teorii poprzez obalanie ich faktami zostaje przez Poppera przyjęta jako kryterium odgraniczenia nauk opisowych (empirycznych) (od teorii i samej filozofii, odrzucając tym samym neopozytywistyczne kryteria demarkacji (indukcji i sprawdzalności).
Treść ideologiczna teorie falsyfikacji i demarkacji mają znaczenie wartościujące, które przenosi nas w wymiar światopoglądowy. Koncepcja Popperowskiej „logiki odkrycia” opiera się na idei, która przybrała formę przekonania, o braku prawdy w nauce i jakichkolwiek kryteriów jej identyfikacji; Znaczenie działalności naukowej nie sprowadza się do poszukiwania prawdy, ale do identyfikacji i odkrywania błędów i nieporozumień. To w zasadzie ideał ideologiczny wyznaczono odpowiednią strukturę:
a) wyobrażenia o świecie, przyjęte w nauce jako wiedza o nim, nie są prawdami, gdyż nie ma mechanizmu, który mógłby ustalić ich prawdziwość, ale jest sposób, aby wykryć ich błędność;
b) w nauce tylko ta wiedza spełnia kryteria naukowe, które są w stanie wytrzymać procedurę fałszowania;
c) w działalności badawczej „nie ma bardziej racjonalnego postępowania niż metoda prób i błędów – założenia i obalenia”.
Struktura ta jest strukturą pojętą i przyjętą na poziomie światopoglądowym przez samego Poppera i wdrażaną przez niego w nauce. Jednakże wpływ przekonań ideologicznych na stworzony przez myśliciela model rozwoju nauki.
Na pierwszy rzut oka procedura obalenia teorii i poszukiwania nowych teorii różniących się zdolnościami rozstrzygającymi wydaje się pozytywna, sugerując rozwój wiedzy naukowej. Jednak w Popperowskim rozumieniu nauki nie zakłada się jej rozwoju z tego powodu, że w samym świecie nie ma rozwoju jako takiego, a jedynie zmianę. Procesy zachodzące na nieorganicznym i biologicznym poziomie istnienia przyrody to jedynie zmiany oparte na próbach i błędach. W związku z tym teorie naukowe, jako domysły na temat świata, nie implikują ich rozwoju. Zastąpienie jednej teorii inną jest w nauce procesem niekumulującym się. Teorie, które się zastępują, nie mają między sobą ciągłości, wręcz przeciwnie, nowa teoria jest nowa, ponieważ jak najbardziej dystansuje się od starej teorii. Dlatego teorie nie podlegają ewolucji i nie następuje w nich rozwój; po prostu zastępują się nawzajem, nie utrzymując między sobą żadnej ewolucyjnej „nici”. Co w tym przypadku Popper postrzega jako wzrost wiedzy naukowej i postęp w teoriach?
Widzi znaczenie i wartość nowej teorii, która zastąpiła starą w jej zdolności do rozwiązywania problemów. Jeśli dana teoria rozwiązuje problemy inne niż te, które miała rozwiązać, to oczywiście taką teorię uznaje się za postępową. „...Najbardziej znaczący wkład w rozwój wiedzy naukowej” – pisze Popper – „jaki może wnieść teoria, polega na generowaniu przez nią nowych problemów…”. Z tego stanowiska jasno wynika, że ​​postęp nauki rozumiany jest jako ruch w kierunku rozwiązywania bardziej złożonych i głębszych problemów, a rozwój wiedzy w tym kontekście rozumiany jest jako stopniowe zastępowanie jednego problemu drugim lub ciąg teorii zastępujących każdy z nich. inne, powodując „przesunięcie problemu”.
Popper jest przekonany, że rozwój wiedzy jest istotnym aktem racjonalnego procesu badania naukowe. „To sposób rozwoju czyni naukę racjonalną i empiryczną”, mówi filozof, „to znaczy sposób, w jaki naukowcy rozróżniają istniejące teorie i wybierają najlepszą z nich lub (jeśli nie ma zadowalającej teorii) przedstawiają uzasadnienia za odrzucenie wszelkich istniejących teorii i sformułowanie warunków, jakie musi spełniać zadowalająca teoria.”
Przez zadowalającą teorię myśliciel rozumie nową teorię zdolną do spełnienia kilku warunków: po pierwsze, do wyjaśnienia faktów dwojakiego rodzaju: z jednej strony tych faktów, którymi poprzednie teorie pomyślnie sobie poradziły, i z drugiej strony tych faktów, którymi te teorie nie potrafił wyjaśnić; po drugie, znalezienie zadowalającej interpretacji danych eksperymentalnych, według których sfałszowano istniejące teorie; po trzecie, zintegrowanie niepowiązanych ze sobą problemów i hipotez w jedną całość; po czwarte, nowa teoria musi zawierać sprawdzalne konsekwencje; po piąte, sama teoria musi również wytrzymać rygorystyczną procedurę testową. Popper uważa, że ​​taka teoria jest nie tylko owocna w rozwiązywaniu problemów, ale ma nawet w pewnym stopniu zdolność heurystyczną, która może służyć jako dowód powodzenia działania poznawczego.
Opierając się na krytyce tradycyjnego myślenia syntetycznego i analitycznego, Popper proponuje nowe kryterium wiedzy, które nazywa „kryterium falsyfikowalności”. Teoria jest naukowa i racjonalna tylko wtedy, gdy można ją falsyfikować.
Istnieje wyraźna asymetria pomiędzy weryfikacją (potwierdzeniem) a fałszowaniem. Miliardy dowodów nie mogą utrwalić teorii. Jedno obalenie i teoria zostaje podważona. Przykład: „Kawałki drewna nie unoszą się w wodzie” - „Ten kawałek hebanu nie unosi się na wodzie”. Karl Popper lubił powtarzać słynne powiedzenie Oscar Wilde: „Doświadczenie to nazwa, którą nadajemy własnym błędom”. Wszystko należy sprawdzić poprzez fałszerstwo.
Twierdzono zatem prowokacyjne podejście do rzeczywistości, czyli autora teorii społeczeństwo otwarte Ogólnie pochwaliłbym poczynania rosyjskich chłopów ze słynnego dowcipu o japońskich maszynach do obróbki drewna. „Przywieźli go do syberyjskiego tartaku Japoński samochód. Mężczyźni podrapali się po głowach i wepchnęli w nią ogromną sosnę. Maszyna wierciła się, wierciła i wypluwała wspaniałe deski. „M-tak” – odpowiedzieli mężczyźni. I położyli gruby świerk ze wszystkimi jego gałęziami i igłami. Maszyna znów się poruszyła, zakręciła i rozdawała deski. „Hmm, tak” – odpowiedzieli mężczyźni z szacunkiem. I nagle widzą: jakiś biedak niesie poręcz. Szyna została z zapałem wepchnięta w mechanizm. Mechanizm westchnął, kichnął i złamał się. „Hmm, tak” – odpowiedzieli z satysfakcją pracownicy i chwycili za piły. Popper zauważyłby, że nie może istnieć maszyna, która WSZYSTKO zamienia w deski. Może istnieć tylko maszyna, która COŚ zamienia w deski.
Logiczny model Poppera zakłada nową koncepcję rozwoju. Należy porzucić poszukiwania rozwiązania idealnego, definitywnie poprawnego, na rzecz rozwiązania optymalnego, zadowalającego.
„Nowa teoria ujawnia nie tylko to, co udało się poprzednikowi, ale także jego poszukiwania i niepowodzenia… Fałszowanie, krytyka, uzasadniony protest, sprzeciw prowadzą do wzbogacenia problemów”. Nie wprowadzając od razu hipotez, zadajemy sobie pytanie, dlaczego upadła poprzednia teoria. Odpowiedź powinna się pojawić nowa wersja, najlepsza teoria. „Jednakże” – podkreślił Popper – „nie ma gwarancji postępu”.

Wniosek

W historii nauki zaproponowano dwie zasady, które pozwalają nam wytyczyć granicę między teoriami naukowymi a tym, co nie jest nauką.
Pierwszą zasadą jest zasada weryfikacji: każde pojęcie lub sąd ma sens naukowy, jeśli można je sprowadzić do postaci weryfikowalnej empirycznie lub samo takiej formy nie może mieć, wówczas jego konsekwencje muszą mieć potwierdzenie empiryczne; jedna z zasad weryfikacji brzmi: ma zastosowanie w ograniczonym zakresie, w niektórych obszarach nowoczesna nauka nie można go używać.
Amerykański filozof K. Popper zaproponował inną zasadę – zasadę falsyfikacji, która polega na tym, że bezpośrednie potwierdzenie teorii często komplikuje niemożność uwzględnienia wszystkich konkretnych przypadków jej działania i obalenia teorii , wystarczy jeden przypadek, który się z nią nie zgadza, zatem jeśli teoria jest sformułowana w taki sposób, że może zaistnieć sytuacja, w której zostanie ona obalona, ​​to taka teoria jest naukowa. Niepodważalna teoria w zasadzie nie może być naukowa.

Lista źródeł

1. Martynowicz S.F. Fakt naukowy i jego determinacja. Saratów, 1983.
2. Putnam H. Jak nie można mówić o znaczeniu // Struktura i rozwój nauki. M., 1978.
3. Popper K. Logika a rozwój wiedzy naukowej. M., 1983, s. 35.
4. Cytat. autor: Ovchinnikov N.F. „O intelektualnej biografii Poppera.” // Pytania filozoficzne, 1995, nr 11.
Zasady weryfikacji i fałszowania
Wysłane przez Naukowiec | 30.06.2010 | 6:18 | W kategoriach: Filozofia technologii
Weryfikacja – (od łacińskiego verificatio – dowód, potwierdzenie) – pojęcie stosowane w logice i metodologii wiedzy naukowej na oznaczenie procesu ustalania prawdziwości twierdzeń naukowych poprzez ich empiryczną weryfikację.

Weryfikacja polega na skorelowaniu twierdzenia ze stanem rzeczywistym za pomocą obserwacji, pomiaru lub eksperymentu.

Wyróżnia się weryfikację bezpośrednią i pośrednią. W kier. V. samo stwierdzenie, które mówi o faktach z rzeczywistości lub danych eksperymentalnych, poddawane jest weryfikacji empirycznej.

Jednak nie każde stwierdzenie można bezpośrednio skorelować z faktami, ponieważ większość twierdzeń naukowych odnosi się do obiektów idealnych lub abstrakcyjnych. Stwierdzenia takie podlegają weryfikacji pośredniej. Z tego stwierdzenia wyprowadzamy konsekwencję dotyczącą obiektów, które można zaobserwować lub zmierzyć. Konsekwencję tę można bezpośrednio zweryfikować.

V. wniosek uważa się za pośrednią weryfikację twierdzenia, z którego uzyskano ten wniosek. Załóżmy na przykład, że musimy zweryfikować stwierdzenie „Temperatura w pomieszczeniu wynosi 20°C”. Nie da się tego bezpośrednio zweryfikować, gdyż w rzeczywistości nie ma obiektów, którym odpowiadałyby pojęcia „temperatura” i „20°C”. Z tego stwierdzenia możemy wywnioskować wniosek, który mówi, że jeśli do pomieszczenia wniesie się termometr, słupek rtęci zatrzyma się na znaku „20”.

Przynosimy termometr i poprzez bezpośrednią obserwację weryfikujemy stwierdzenie „Kolumna rtęci jest na poziomie „20”. Służy to jako pośrednie V. pierwotnego stwierdzenia. Weryfikowalność, czyli empiryczna sprawdzalność twierdzeń i teorii naukowych, uważana jest za jeden z ważnych przejawów nauki. Twierdzenia i teorie, których w zasadzie nie da się zweryfikować, na ogół nie są uważane za naukowe.

FAŁSZYWANIE (od łac. falsus – fałsz i facio – robię) – postępowanie metodologiczne, co pozwala na stwierdzenie fałszywości hipotezy lub teorii zgodnie z zasadą modus tollens logiki klasycznej. Pojęcie „falsyfikacji” należy odróżnić od zasady falsyfikowalności, która została zaproponowana przez Poppera jako kryterium oddzielające naukę od metafizyki, jako alternatywa dla przyjętej w neopozytywizmie zasady sprawdzalności. Wyizolowane hipotezy empiryczne z reguły można poddać bezpośredniemu testowaniu i odrzucić na podstawie odpowiednich danych eksperymentalnych, a także ze względu na ich niezgodność z podstawowymi teoriami naukowymi. Jednocześnie abstrakcyjne hipotezy i ich systemy tworzące teorie naukowe są bezpośrednio niefalsyfikowalne. Faktem jest, że empiryczne testowanie systemów wiedzy teoretycznej zawsze wiąże się z wprowadzaniem dodatkowych modeli i hipotez, a także opracowywaniem teoretycznych modeli instalacji eksperymentalnych itp. Rozbieżności pomiędzy przewidywaniami teoretycznymi a wynikami eksperymentalnymi, które powstają w trakcie procesu testowania, można w zasadzie rozwiązać, dokonując odpowiednich korekt w poszczególnych fragmentach testowanego systemu teoretycznego.

Dlatego do ostatecznej teorii doktoranckiej konieczna jest teoria alternatywna: tylko ona, a nie same wyniki eksperymentów, jest w stanie sfałszować testowaną teorię. Zatem tylko w przypadku pojawienia się nowej teorii rzeczywiście zapewniającej postęp wiedzy odrzucenie dotychczasowej teorii naukowej jest uzasadnione metodologicznie i logicznie.

Naukowiec próbuje koncepcje naukowe spełniała zasadę sprawdzalności (zasada weryfikacji) lub przynajmniej zasadę obalenia (zasada falsyfikacji).

Zasada weryfikacji głosi: tylko weryfikowalne stwierdzenia mają znaczenie naukowe.

Naukowcy dokładnie sprawdzają swoje odkrycia, a także własne odkrycia. Tym właśnie różnią się od ludzi obcych nauce.

„Koło Carnapa” pomaga rozróżnić to, co sprawdzone, od tego, co w zasadzie nie do sprawdzenia (jest to zwykle rozważane na kursie filozofii w powiązaniu z tematem „Neopozytywizm”). Stwierdzenie: „Natasza kocha Petyę” nie zostało zweryfikowane (nie ma znaczenia naukowego). Stwierdzenie jest weryfikowane (w sposób naukowo wymowny): „Natasza mówi, że kocha Petyę” lub „Natasza mówi, że jest żabią księżniczką”.

Zasada falsyfikacji nie uznaje za naukowe twierdzenia, które znajduje potwierdzenie w jakimkolwiek innym twierdzeniu (czasem nawet wzajemnie się wykluczającym), a w zasadzie nie można go nawet obalić. Są ludzie, dla których każde stwierdzenie jest kolejnym dowodem na to, że mieli rację. Jeśli mu coś powiesz, odpowie: „Co powiedziałem!” Mówisz mu coś zupełnie odwrotnego, a on znowu: „Widzisz, miałem rację!”

Formułując zasadę falsyfikacji, Popper uzupełnił zasadę weryfikacji w następujący sposób:

A) Koncepcja mająca znaczenie naukowe to taka, która spełnia fakty doświadczalne i dla której istnieją wyimaginowane fakty, które, jeśli zostaną odkryte, mogą ją obalić. Ta koncepcja jest prawdziwa.

B) Koncepcja mająca znaczenie naukowe to taka, która została obalona przez fakty i dla której istnieją wyimaginowane fakty, które mogą ją potwierdzić, gdy zostaną odkryte. Taka koncepcja jest fałszywa.

Jeżeli zostaną sformułowane warunki choćby pośredniej weryfikacji, wówczas stawiana teza stanie się wiedzą bardziej wiarygodną.

Jeśli znalezienie dowodów jest niemożliwe (lub bardzo trudne), postaraj się, aby przynajmniej nie było żadnych zaprzeczeń (rodzaj „domniemania niewinności”).

Powiedzmy, że nie możemy zweryfikować jakiegoś stwierdzenia. Następnie postaramy się upewnić, że stwierdzenia przeciwne temu nie znajdują potwierdzenia. W podobny wyjątkowy sposób, „przez zaprzeczenie”, pewna niepoważna osoba sprawdziła swoje uczucia: „Kochanie! Spotykam się z innymi mężczyznami, żeby jeszcze bardziej utwierdzić się w przekonaniu, że naprawdę kocham tylko Ciebie…”

Bardziej ścisła analogia do tego, o czym mówimy, istnieje w logice. Jest to tzw. dowód apagogiczny (od greckiego apagogos – prowadzący). Wniosek o prawdziwości twierdzenia formułuje się pośrednio, czyli stwierdzenie, które mu zaprzecza, zostaje obalone.

Rozwijając zasadę falsyfikacji, Popper starał się wprowadzić skuteczniejsze rozgraniczenie wiedzy naukowej i pozanaukowej.

Według akademika Migdala profesjonaliści, w przeciwieństwie do amatorów, nieustannie starają się obalić samych siebie…

Tę samą myśl wyraził Louis Pasteur: prawdziwy badacz to taki, który stara się „zniszczyć” swojego własne odkrycie, nieustannie testując jego siłę.

Tak w nauce bardzo ważne przywiązuje się wagę do rzetelności faktów, ich reprezentatywności, a także logicznej ważności postawionych na ich podstawie hipotez i teorii.

W tym samym czasie pomysły naukowe zawierać elementy wiary. Ale to specjalna wiara, która nie prowadzi do transcendentalnego, nieziemskiego świata. Przykładem tego są aksjomaty „wzięte na wiarę”, zasady początkowe.

JEST. Szkłowski w swojej bestsellerowej książce naukowej „Wszechświat, życie, umysł” wprowadził owocną zasadę zwaną „domniemaniem naturalności”. Według niego każde odkryte zjawisko uważa się automatycznie za naturalne, chyba że zostanie całkowicie wiarygodnie udowodnione, że jest odwrotnie.

W nauce orientacje polegające na wierze, zaufaniu i podwójnej kontroli są ze sobą ściśle powiązane.

Najczęściej naukowcy wierzą tylko w to, co można dwukrotnie sprawdzić. Nie wszystko da się sprawdzić samemu. Ktoś dwukrotnie sprawdza i ktoś ufa temu, który dwukrotnie sprawdził. Najbardziej ufa się renomowanym, profesjonalnym ekspertom.

Często „to, co jest apriori* dla jednostki, jest a posteriori dla gatunku”

Niedawno odbyłem dziwną rozmowę z jednym z moich znajomych. Twierdził, że w istocie to, co proponowali logiczni pozytywiści i to, co proponował Popper, jest jednym i tym samym. Dlatego od dawna chciałem zrobić ten wpis, aby wyjaśnić sytuację w tym sensie, że osobiście ją widzę.

Na początek kilka słów o pozytywizmie logicznym. To wszystko może wydawać się nieco uproszczone, ale jednak.
Pozytywizm logiczny jest ruchem, który rozwinął się w oparciu o tzw. „Krąg Wiedeński”, zorganizowany w 1922 r. przez M. Schlicka. Logiczne pozytywiści postawili przed sobą ciekawe zadanie – znalezienie rzetelnych podstaw wiedzy naukowej. Ponadto bardzo interesował ich problem demarkacji – oddzielenia wiedzy naukowej od wiedzy pozanaukowej; oni w szczególności naprawdę chcieli wypędzić filozofię (metafizykę) z nauki. Zdaniem pozytywistów logicznych, aby dane twierdzenie (w sensie logicznym) mogło mieć status naukowego, konieczne jest, aby dało się je wyrazić za pomocą jakichś zdań elementarnych (protokolarnych), które mają charakter empiryczny (dla uproszczenia rozważymy w ten sposób, chociaż jest tu coś innego -Co). Oznacza to, że w istocie każdą wiedzę naukową należy ściśle sprowadzić do doświadczenia empirycznego w takiej czy innej formie. Natomiast wiedza teoretyczna budowana jest w oparciu o wiedzę empiryczną poprzez jej uogólnienie indukcyjne. Logiczni pozytywiści wysuwają tę tezę zasada weryfikacji, co musi zadowolić teoria naukowa. Jego logiczna forma to

gdzie T jest teorią i jest konsekwencją logicznie wydedukowaną z teorii T, a jednocześnie zdaniem elementarnym wyrażającym empirycznie wiarygodny fakt. W tym przypadku mówią, że teorię potwierdza fakt empiryczny a. Im więcej faktów empirycznych, tym wyższy stopień potwierdzenia teorii. Schemat ten opiera się zatem na indukcji – poszczególne fakty potwierdzają ogólną teorię.

Koncepcja Karla Poppera przeciwstawia się pozytywizmowi logicznemu w wielu punktach, w szczególności:

  1. Przeciw indukcji. Indukcja jako metoda logiczna obejmuje moment irracjonalny (o czym mówił David Hume): w którym momencie można przerwać wyliczenie i przejść od przesłanek (skończonego zbioru faktów) do wniosku (ogólnego stwierdzenia na temat wszystkich takich faktów)? Z logicznego punktu widzenia – nigdy. Nie ma logicznego przejścia od przesłanek do wniosków. A indukcja jest logiczną podstawą empiryzmu. Zatem empiryzm nie jest logicznie uzasadniony.
  2. Wbrew zasadzie weryfikacji. Ustalenie prawdziwości określonego stwierdzenia jest dość trudne. Na przykład stwierdzenie „Wszystkie łabędzie są białe” będzie prawdziwe, jeśli każdy z łabędzi będzie biały. Oznacza to, że musisz sprawdzić każdego łabędzia. Ale możesz wykazać fałszywość takiego twierdzenia, znajdując przynajmniej jeden kontrprzykład. Zatem, istnieje pewna asymetria między potwierdzeniem a zaprzeczeniem.
  3. Przeciwko dyskredytacji filozofii (metafizyki) przez pozytywistów. Popper pokazał (patrz jego „Logika badań naukowych”), że jeśli zastosujemy zasady pozytywizmu logicznego, stanie się jasne, że nie tylko filozofia wypada z kategorii nauki - wiele twierdzeń fizyki teoretycznej okazuje się także pozanaukowych . Tutaj przypomina mi się historia z ogólna teoria względność. Osoby rozumiejące problem rozumieją, że nie ma ani jednego pełnego potwierdzenia tej teorii. Istnieje wiele (ogólnie mówiąc bardzo małych) potwierdzeń, które w taki czy inny sposób opierają się na obliczaniu poprawek do potencjału Newtona. Ale to nie sprawia, że ​​wątpimy w tę teorię. I tu chodzi o to, że na pierwszy plan wysuwa się teoria, a nie doświadczenie. Popper nie wierzył* (nawiasem mówiąc, Einstein też nie wierzył), że teoria powinna opierać się na faktach empirycznych lub w jakikolwiek sposób być przez nie prowokowana.
Opierając się na swojej koncepcji, Popper proponuje alternatywę dla zasady weryfikacji – zasada fałszowania, którego schemat logiczny wygląda następująco:

gdzie T jest teorią, b jest konsekwencją, a nie b jest faktem empirycznym, który zaprzecza konsekwencji. Konkluzja potwierdza fałszywość T.
W rezultacie:
1. Znaczenie wiedzy empirycznej pozostaje niezmienne.
2. Tryb ten ma charakter dedukcyjny, a jego wniosek jest logicznie pewny.
3. Indukcja zostaje zachowana - w konkretnym sensie: indukcyjne kierowanie kłamstw od fałszywej wiedzy prywatnej w przesłankach do fałszywej wiedzy ogólnej w konkluzji.

Jako kryterium charakteru naukowego (rozgraniczenia) wysuwa się zasadę falsyfikacji: teoria musi mieć potencjalna szansa sprzeczne z faktami empirycznymi. Im więcej nieudanych prób obalenia, tym lepiej dla teorii. Falsyfikowalność to zatem logiczna relacja pomiędzy teorią a klasą potencjalnych falsyfikatorów (dotyczy to nie tylko czystej wiedzy empirycznej, ale także twierdzeń mentalnych). Próba rehabilitacji fałszywej teorii prowadzi, zdaniem Poppera, do dogmatyzmu. I własnie dlatego. Jeśli b wyprowadzono z teorii, ale w praktyce okazuje się, że nie jest to b, to trzeba w jakiś sposób wprowadzić do teorii twierdzenie o nie-b. Może to jednak prowadzić do teorii zawierającej sprzeczność, a to, jak wiadomo, prowadzi do tego, że z teorii można wywnioskować wszystko. Aby to zademonstrować proste stwierdzenie Przytoczę słowa Poppera z jego artykułu „Co to jest dialektyka”:

„Korzystając z naszych dwóch reguł, możemy to faktycznie pokazać. Powiedzmy, że są dwie sprzeczni przyjaciele paczki do znajomego, powiedz:
a) Teraz świeci słońce.
b) Słońce teraz nie świeci.
Z tych dwóch przesłanek można wyprowadzić dowolne stwierdzenie, np. „Cezar był zdrajcą”.
Z przesłanki (a) możemy wyprowadzić, zgodnie z regułą (1), następujący wniosek:
(c) Teraz świeci słońce. V Cezar był zdrajcą. Biorąc teraz za przesłanki (b) i (c), możemy ostatecznie wywnioskować, zgodnie z regułą (2):
d) Cezar był zdrajcą.
Jasne jest, że tą samą metodą można by wyciągnąć dowolne inne stwierdzenie, na przykład: „Cezar nie był zdrajcą”. Zatem z „2 + 2 = 5” i „2 + 2 nie = 5” możemy wyprowadzić nie tylko stwierdzenie, które chcielibyśmy, ale także jego zaprzeczenie, co mogło nie być częścią naszych planów.
Jeśli chodzi o weryfikację, Popper mówi, co następuje:
„Mogę to zilustrować dwoma znacząco różnymi przykładami ludzkich zachowań: zachowaniem osoby wpychającej dziecko do wody z zamiarem utopienia go oraz zachowaniem osoby poświęcającej swoje życie, aby ratować to dziecko. Każdy z tych przypadków można łatwo wyjaśnić zarówno w kategoriach freudowskich, jak i adlerowskich. Według Freuda pierwsza osoba cierpi na kompleks wyparcia (powiedzmy Edypa), druga natomiast osiągnęła sublimację. Według Adlera, pierwsza osoba cierpi na poczucie niższości (co powoduje, że udowadnia sobie, że jest w stanie odważyć się popełnić przestępstwo), to samo spotyka drugą (która ma potrzebę udowodnienia sobie, że jest w stanie popełnić przestępstwo). jest w stanie uratować dziecko). Nie przychodziła mi więc do głowy żadna forma ludzkiego zachowania, której nie dałoby się wyjaśnić na podstawie każdej z tych teorii. I właśnie ten fakt – że radzili sobie ze wszystkim i zawsze znajdowali potwierdzenie – w oczach ich zwolenników był najbardziej mocny argument na korzyść tych teorii. Zacząłem jednak podejrzewać, czy nie był to wyraz siły, a wręcz przeciwnie, słabości tych teorii?
<….>
Astrologia nie podlega testowaniu. Astrolodzy tak bardzo mylą się co do tego, co uważają za dowód potwierdzający, że nie zwracają uwagi na przykłady, które są dla nich niekorzystne. Co więcej, czyniąc swoje interpretacje i proroctwa wystarczająco niejasnymi, są w stanie wyjaśnić wszystko, co mogłoby obalić ich teorię, gdyby ona i wynikające z niej proroctwa były dokładniejsze. Aby uniknąć falsyfikacji, niszczą sprawdzalność swoich teorii. Jest to zwykła sztuczka wszystkich wróżbitów: przewidywać wydarzenia tak niejasno, aby przewidywania zawsze się sprawdzały, to znaczy, aby były niepodważalne.
Te dwa, o których wspomniałem wcześniej teorie psychoanalityczne należą do innej klasy. Są to po prostu teorie niesprawdzalne i niepodważalne. ... Nie oznacza to, że Freud i Adler w ogóle nie powiedzieli niczego prawidłowego... Oznacza to jednak, że te „obserwacje kliniczne”, w które naiwnie wierzą psychoanalitycy, potwierdzają ich teorię, nie potwierdzają tego w rzeczywistości w większym stopniu niż codzienne potwierdzenia znajdowane przez astrologów w ich praktyce. Jeśli chodzi o Freudowski opis Ja (Ego), Super-I (Super-Ego) i Id (Id), nie jest on w zasadzie bardziej naukowy niż opowieści Homera o Olimpie. Rozważane teorie opisują pewne fakty, ale czynią to w formie mitu. Zawierają bardzo interesujące założenia psychologiczne, ale wyrażają je w niesprawdzalnej formie.
—Popper K.R. Domysły i obalenia. Rozwój wiedzy naukowej. Londyn i Henley. Routledge i Kegan Paul, 1972.
Popperowi udało się zidentyfikować główne mankamenty programu pozytywizmu logicznego, właściwie zamknął problem istnienia wiarygodnego źródła wiedzy. Stare pytanie o to, co decyduje w aktywności poznawczej: uczucia czy rozum – okazało się błędnie sformułowane, gdyż Nie ma „czystych” faktów empirycznych. Zawsze opierają się na określonej teorii. Popper skłonił nas do zastanowienia się nad naturą wiedzy teoretycznej i rolą indukcji w jej powstaniu. Głównym celem naukowca jest stawianie ryzykownych hipotez, których falsyfikacja zmusza do stawiania nowych problemów i hipotez jeszcze bardziej ryzykownych.
Do wad tradycyjnie zalicza się fakt, że nigdy nie doszło do konsekwentnego wdrażania zasady falsyfikacji w rzeczywistej praktyce naukowej. Prawdziwy naukowiec, w obliczu sprzeczności, nawet po pewnym czasie nie porzuci swojej teorii, ale dowie się o przyczynach konfliktu teorii z faktami, będzie szukał okazji do zmiany niektórych parametrów teorii, że znaczy, że go uratuje, co jest zasadniczo zabronione w metodologii Poppera.

*) Ogólnie rzecz biorąc, o ile pamiętam, sam Karl Popper w ogóle nie miał wykształcenia humanistycznego, raczej był blisko matematyki i Fizyka teoretyczna jak zresztą wielu członków koła wiedeńskiego.

Kryterium statusu naukowego teorii jest jej sprawdzalność i fundamentalna falsyfikowalność.

Istnieje kilka kryteriów rozróżnienia idei naukowych i pseudonaukowych. W latach dwudziestych XX wieku Filozofowie neopozytywistyczni zaproponowali koncepcję weryfikacji wiedzy naukowej. Za kryterium odróżnienia wiedzy naukowej od wiedzy nienaukowej neopozytywiści uznawali weryfikację, czyli tzw. potwierdzenie eksperymentalne. Twierdzenia naukowe mają sens, ponieważ można je zweryfikować w oparciu o doświadczenie; twierdzenia, których nie można zweryfikować, są bez znaczenia. Twierdzenia naukowe są tym lepiej uzasadnione, im więcej faktów je potwierdza. Za pomocą procedury weryfikacyjnej neopozytywiści zamierzali oczyścić naukę ze wszelkich twierdzeń pozbawionych sensu i zbudować model nauki idealny z punktu widzenia logiki. Jest oczywiste, że w modelu neopozytywistycznym nauka została zredukowana do wiedzy empirycznej, stwierdzeń o faktach potwierdzonych doświadczeniem.

Koncepcja weryfikacji wiedzy naukowej została poddana krytyce zaraz po jej pojawieniu się. Istota postanowień krytycznych sprowadzała się do stwierdzenia, że ​​nauka nie może rozwijać się wyłącznie w oparciu o doświadczenie, gdyż zakłada uzyskiwanie wyników, które są nieredukowalne do doświadczenia i nie można z niego bezpośrednio wywnioskować. W nauce istnieją stwierdzenia dotyczące faktów z przeszłości, sformułowania ogólnych praw, których nie można zweryfikować za pomocą kryteriów weryfikacji. Ponadto sama zasada sprawdzalności jest nieweryfikowalna, tj. należy ją uznać za bezsensowną i podlegającą wykluczeniu z systemu twierdzeń naukowych.

K. Popper w swojej koncepcji krytycznego racjonalizmu zaproponował inne kryterium odróżnienia wiedzy naukowej od wiedzy nienaukowej – falsyfikację. Teoretyczne stanowisko krytycznego racjonalizmu rozwinęło się w polemice z neopozytywizmem. K. Popper argumentował zatem, że postawa naukowa jest przede wszystkim postawą krytyczną. Testowanie hipotezy pod kątem ważności naukowej nie powinno polegać na poszukiwaniu faktów potwierdzających, ale na próbie jej obalenia. Falsyfikowalność jest zatem utożsamiana z falsyfikowalnością empiryczną. Z ogólnych założeń teorii wyprowadzane są konsekwencje, które można skorelować z doświadczeniem. Następnie te implikacje są testowane. Odrzucenie jednej z konsekwencji teorii falsyfikuje cały system. „Za kryterium demarkacji należy uznać nieweryfikowalność i falsyfikowalność systemu... Od system naukowy Domagam się, aby miał taką formę logiczną, która pozwalałaby na wyodrębnienie go w sensie negatywnym: dla empirycznego systemu naukowego musi istnieć możliwość obalenia go przez doświadczenie” – przekonywał K. Popper. Jego zdaniem naukę należy rozumieć jako system hipotez, domysłów i przewidywań, które stosuje się tak długo, jak długo wytrzymują one testy empiryczne.

Dlatego K. Popper proponuje analizę nauki na poziom teoretyczny, jako integralnego systemu, a nie do potwierdzania poszczególnych stwierdzeń. Jego zdaniem każda teoria, jeśli twierdzi, że jest naukowa, musi w zasadzie zostać obalona przez doświadczenie. Jeżeli teoria jest skonstruowana w taki sposób, że jest w zasadzie niepodważalna, to nie można jej uznać za naukową.

Nauka bada tylko to, co istnieje samo w sobie i niezależnie od podmiotu. Nie interesuje ją, dlaczego tak jest, co mogłoby być, co powinno być i jak dobre lub złe jest. W zasadzie nauka może odpowiedzieć na te pytania, ale je ignoruje. Nie szuka prawdy absolutnej, odpowiadając na wszystkie możliwe pytania. Do powściągliwości można podejść na różne sposoby, jednak społeczność naukowa uważa, że ​​ten styl pozwala osiągnąć najbardziej znaczące rezultaty.

Nauka opiera się na dowodach, więc tylko to, co można potwierdzić lub obalić, ma sens. Potwierdzenie i obalenie to dwa rodzaje dowodów. Potwierdzenie dowodzi prawdy, a obalanie dowodzi fałszywości. Nauka dąży do uniwersalnego obligatoryjnego charakteru i powszechnego uznania stopnia trafności i obiektywności swoich twierdzeń. Wnioski i stwierdzenia muszą być dla każdego jednakowo przekonujące.

Idee filozoficzne, w przeciwieństwie do wiedzy naukowej, są ściśle powiązane z subiektywnymi preferencjami. Materialista uważa wieczną i nieskończoną materię za pierwszą zasadę, idealista zaś za pierwszą zasadę uważa ideał, duchowość (Bóg, Umysł Świata, Ideę Absolutną itp.). Tych przeciwstawnych idei nie można ani potwierdzić, ani obalić, więc możesz wierzyć tylko w jedno lub drugie. Ogólnie rzecz biorąc, jest to kwestia stosunku świadomości do bytu.

Środowisko naukowe uznaje dziś dwa kryteria, na podstawie których odróżnia wiedzę naukową od pseudonaukowej

Zasadą weryfikacji jest (od łacińskiego verus – prawda i facere – robić), zgodnie z którą tylko ta wiedza jest naukowa, co można potwierdzić (w ten czy inny sposób, bezpośrednio lub pośrednio, wcześniej lub później). Zasada ta została zaproponowana przez Bertranda Russella.

Zasada fałszowania to (od łacińskiego false – kłamstwo i facere – robić), zgodnie z którą tylko ta wiedza ma charakter naukowy, którą można (w ten czy inny sposób, bezpośrednio lub pośrednio, prędzej czy później) obalić. Zasadę tę zaproponował Karl Popper.

Jeżeli pierwsze kryterium nie budzi wątpliwości, wówczas bezsprzeczność drugiego staje się wątpliwa. Jej praktyczne zastosowanie w odniesieniu do nauki zakończy się ostateczną katastrofą, a kto może zagwarantować, że pewnego dnia tak się nie stanie? Kryterium to należy uznać za nienaturalne i samobójcze. Jeśli zasada weryfikacji ma na celu wzmocnienie systemu wiedzy naukowej, to zasada fałszowania ma na celu jego zniszczenie. W naturze system oparty na takich zasadach byłby skazany na zagładę.

Zasada falsyfikacji narusza logikę, dlatego należy ją zastąpić bardziej adekwatną.Tylko ta wiedza jest naukowa i da się ją zmienić, czyli obalić lub uzupełnić. Potrzeba dodawania wynika z jedności pewności i niepewności. Wiedza naukowa nie powinna być absolutna. Niech nauka nie dąży do absolutna prawda(tj. dla całkowitej pewności), ale co zrobić, jeśli wiedza wymaga doprecyzowania? W proponowanej interpretacji kryteria naukowości stają się przeciwieństwami i już samo to czyni je naturalnymi i niezniszczalnymi. Wytrzymają nawet najbardziej stronniczą krytykę.

Wybór redaktorów
W 1943 roku Karaczajowie zostali nielegalnie deportowani ze swoich rodzinnych miejsc. Z dnia na dzień stracili wszystko – dom, ojczyznę i…

Mówiąc o regionach Mari i Vyatka na naszej stronie internetowej, często wspominaliśmy i. Jego pochodzenie jest tajemnicze; ponadto Mari (sami...

Wprowadzenie Struktura federalna i historia państwa wielonarodowego Rosja jest państwem wielonarodowym. Zakończenie Wprowadzenie...

Ogólne informacje o małych narodach RosjiNotatka 1 Przez długi czas w Rosji żyło wiele różnych ludów i plemion. Dla...
Tworzenie Polecenia Kasowego Paragonu (PKO) i Polecenia Kasowego Wydatku (RKO) Dokumenty kasowe w dziale księgowości sporządzane są z reguły...
Spodobał Ci się materiał? Możesz poczęstować autora filiżanką aromatycznej kawy i zostawić mu życzenia 🙂Twój poczęstunek będzie...
Inne aktywa obrotowe w bilansie to zasoby ekonomiczne spółki, które nie podlegają odzwierciedleniu w głównych liniach raportu drugiej części....
Wkrótce wszyscy pracodawcy-ubezpieczyciele będą musieli przedłożyć Federalnej Służbie Podatkowej kalkulację składek ubezpieczeniowych za 9 miesięcy 2017 r. Czy muszę to zabrać do...
Instrukcja: Zwolnij swoją firmę z podatku VAT. Metoda ta jest przewidziana przez prawo i opiera się na art. 145 Ordynacji podatkowej...