Wersja z 2021-07-10

Nauka

Artykuł ten jest poświęcony próbie przybliżenia odpowiedzi na pytanie, czym jest nauka, i gdzie leżą jej granice. Temat ten jest jednak na tyle obszerny, że trudno byłoby przedstawić go tutaj wyczerpująco. Zostaną więc jedynie zasygnalizowane niektóre kluczowe problemy, zostaną również skrytykowane niektóre opinie głoszone na temat zadań nauki i jej zakresu.

Różne znaczenie terminu „nauka”

Zacznijmy od stwierdzenia, że nauka to pojęcie wieloznaczne. Słowo to przybiera różne znaczenia nie tylko w różnych kontekstach, ale także jego zakres znaczeniowy zmienia się w czasie i jest różny w różnych językach.

Nawet polski termin może być różnie rozumiany w różnych kontekstach. Pierwsze znaczenie można określić jako procesualne. Nauka jest to zatem proces indywidualnego przyswajania i utrwalania jakichkolwiek treści, zdobywania wiedzy, nabywania umiejętności, którym poddaje się każdy uczeń. Nauką jest także całokształt działań zmierzających do poszerzania horyzontów wiedzy przez powołane do tego celu instytucje, takie jak wyższe uczelnie czy instytuty naukowe.

Drugie znaczenie terminu „nauka” można określić jako instytucjonalne. W tym właśnie sensie używa się np. wyrażenia „przedstawiciel nauki polskiej” używanego jako określenie człowieka pracującego w obszarze zwanym nauką. W tym sensie nauka jest instytucją nastawioną na zdobywanie i poszerzanie wiedzy o rzeczywistości.

Trzecie znaczenie odnosi się do treści tego, co się uczy lub czego się naucza. Nauką staje się w tym rozumieniu treść podlegająca przyswojeniu przez ucznia. Znaczenie takie jest związane z językiem polskim, i w innych językach może nie występować, albo nie kojarzyć się w ogóle z nauką w innych znaczeniach.

Wreszcie czwarte znaczenie nie jest właściwe tylko językowi polskiemu. Jest związane z semantyką łacińskiego terminu scientia, związanego z czasownikiem scire ‘wiedzieć’. Nauka jest w tym znaczeniu rozumiana jako całości wiedzy o rzeczywistości, niekoniecznie przeznaczonej do nauczania (choć w praktyce oczywiście nauczanej), ale za to koniecznie spełniającej pewne określone kryteria treściowe i metodologiczne, określane jako warunki naukowości. Właśnie tym znaczeniem będziemy zajmować się w dalszym ciągu.

Nauka w czasie i przestrzeni

Pogląd na granice i rolę nauki zmieniał się przez wieki, zmieniał się też punkt widzenia na to, co naukowe, a co nienaukowe.

Starożytność i średniowiecze

Tradycja europejskiego sposobu rozumienia nauki wyrosła z filozofii greckiej, w której nauka zawierała się w filozofii i sztuce.

Okres nowożytny

W erze nowożytnej nauka zaczęła zyskiwać autonomię i oddzielać się od sztuki i filozofii. Zaczęto ją rozumieć ją jako zbiór problemów związanych z poznaniem rzeczywistości, a także metod stawiania takich problemów i ich rozwiązywania.

Oddzielenie nauki od sztuki nie zostało dotąd dokonane w pełni i w sposób uniwersalny, powszechnie akceptowany. Dlatego do dziś angielski termin science znaczy niedokładnie to samo, co jego polski odpowiednik, i to samo można powiedzieć o niemieckim Wissenschaft. W krajach anglosaskich dyscypliny znane u nas jako nauki humanistyczne i społeczne traktuje się raczej jako dziedziny sztuki, ograniczając obszar nauki (science) do matematyki i nauk przyrodniczych. W Niemczech nauka (Wissenschaft) pojmowana jest szerzej, i obejmuje także humanistykę. W Polsce modne jest pojęcie najszersze, w którym do nauki włącza się jeszcze teologię, medycynę, technologię, inżynierię.

Modernizm

Na przełomie wieków XIX i XX widoczne zmiany w życiu, rozwój techniki, tryumf cywilizacji nad przyrodą na niespotykaną dotąd skalę sprawiły, że do głosu doszła wiara w prymat rozumu ludzkiego. Stanowisko takie określono jako modernizm – nowoczesność. Zgodnie z modernistycznym punktem widzenia podstawą uprawiania nauki jest tworzenie teorii, których zadaniem jest tłumaczenie świata. Teorie budowane są metodą indukcji. Opierają się na zbiorach zasadniczo niepodważalnych założeń, które stanowią z kolei podstawę dla zbioru logicznie powiązanych ze sobą tez.

Rozmaite teorie są sposobem opisu obiektywnie, fizycznie istniejącej rzeczywistości. Przedstawiają one prawdę widzianą z różnych punktów widzenia, z różnej perspektywy. Jedne robią to lepiej, dokładniej od innych – i tu właśnie pojawia się miejsce dla nauki, której zadaniem jest określanie, które teorie są najtrafniejsze. Te, które są nietrafne lub wadliwe, nauka wskazuje po porównaniu z danymi empirycznymi, a następnie usuwa je z całości wiedzy.

Zbiór założeń nie jest stały i podlega konfrontacji z doświadczeniem. Gdy legnie u podstaw wielu teorii, zaczyna się go traktować jako paradygmat – czyli powszechnie przyjmowany pogląd na jakiś wycinek rzeczywistości, niewymagający bezpośredniego dowodzenia i traktowany jako pewnik na danym etapie rozwoju nauki. Paradygmat jest względnie trwały, ale nie jest niezmienny. Nowe odkrycia mogą bowiem sprawić, że teorie na nim oparte przestają wystarczać do poprawnego opisu rzeczywistości. Wówczas stary paradygmat się odrzuca i zastępuje nowym.

Postmodernizm

Rozwój nauk humanistycznych i społecznych w ciągu XX wieku spowodował, że zaczęto podważać zasady modernistycznego pojmowania nauki. Rozwinięty wówczas postmodernizm głosi, że wiedzy nie można sprawdzać przez porównanie jej ze światem realnym, a więc opisana wyżej metoda empiryczna jest błędna. Teorie są bowiem nie tylko sposobami widzenia rzeczywistości, ale także same kształtują rzeczywistość. Tym samym rzeczywistość jest subiektywna, zależna od działań badacza.

Stanowisko postmodernistyczne, a zwłaszcza subiektywne pojmowanie rzeczywistości, rodzi szereg dość nieprzyjemnych konsekwencji. Jedną z nich jest pogląd, że ścisłych, faktycznych granic nauki wyznaczyć się nie da. Łatwiej jest zdefiniować przedmioty zainteresowań poszczególnych dyscyplin wykładanych w szkołach wyższych czy uprawianych w instytutach naukowych. Wówczas nauka staje się co najwyżej sumą poszczególnych specjalności, z których każda posiada własny zakres zainteresowań i własną metodologię badań. Jednocześnie termin „metoda naukowa” staje się pusty: każda nauka ma swoją własną metodę. Zgodnie z tym poglądem nauki działające w oparciu o zasady modernistyczne nie są jedynymi istniejącymi – dla odróżnienia od innych określa się je jako nauki empiryczne lub indukcyjne. Należą tu wszystkie nauki przyrodnicze (biologia, chemia, fizyka), natomiast niekoniecznie nauki humanistyczne (archeologia, lingwistyka, filologia, historia sztuki) i społeczne (socjologia, ekonomia, demografia, etnografia, pedagogika, prawo, politologia, historia, z pewnymi zastrzeżeniami także filozofia), choć niektóre ich badania mogą mieć czysto empiryczny charakter. Drugą wyraźną grupę stanowią nauki formalne lub dedukcyjne, w których twierdzenia nie konfrontuje się z doświadczeniem, lecz jedynie wyprowadza z przyjętych pewników (aksjomatów) jako ich logiczne konsekwencje. Należą tu logika i matematyka.

Wyróżniono też nauki teoretyczne (logika, metodologia), których zadaniem jest tworzenie praw naukowych i ich systematyzacja w spójne teorie, oraz nauki praktyczne (stosowane), zajmujące się praktycznym zastosowaniem sformułowanych praw naukowych w celu planowego i racjonalnego przekształcania rzeczywistości. Podział ten krzyżuje się z poprzednim.

Cechy dobrej teorii

Cechy dobrej teorii
Reasumując rozważania nad właściwościami teorii naukowych, stwierdzić można (W. Newton- Smith) iż kluczowe własności dobrej teorii to:
1. Ciągłość obserwacyjna (teoria wyjaśnia wszystkie sukcesy teorii którą zastąpiła)
2. Płodność (zdolność do generowania nowych hipotez)
3. Sukcesy w wyjaśnianiu faktów.
4. Wsparcie dla innych teorii (teoria stanowi część systemu wiedzy)
5. Oszczędność (w zakresie korzystania z hipotez pomocniczych)
6. Wewnętrzna spójność
7. Metafizyczna zgodność (niesprzeczność z światopoglądem badacza)
8. Prostota
 

Sceptycyzm

Sceptycyzm w nauce jest wskazany, ale sceptycyzm zatwardziały, który opiera się argumentom i obiektywnym danym jest szkodliwy
https://youtu.be/fHYwxnpH38o?t=56
 

Celem nauki jest proste przedstawianie zjawisk skomplikowanych, nie zaś komplikowanie rzeczy prostych (W. Mańczak, Problemy językoznawstwa ogólnego, Ossolineum, 1996, str. 10).

Metodologia badań naukowych

Nauka (z ang. science) – jest to proces zdobywania zasobu wiedzy. Proces ten jest uznawany za działalność społeczną, której celem jest poznanie rzeczywistości w sposób obiektywny, przez poznanie zależności i relacji między zjawiskami, pojęciami i obiektami. Jako obiekty rozumiane są: ludzie, zwierzęta i przedmioty. Różne dziedziny nauki tworzą systemy działalności człowieka, zmierzające do wyznaczonych celów.

Za naukę uznawany jest także wytwór tej działalności, szczególnie działalności uczonych. Innymi słowy jest to proces badawczy oraz jego intelektualny wynik.

Wiedza może być zdobywana w różnoraki sposoby. Na ich podstawie można ja sklasyfikować no trzy grupy:

1. zdobycie wiedzy przez odwoływanie się do autorytetów,

2. zdobycie wiedzy przez w oparciu o wiarę,

3. zdobycie wiedzy sposobem racjonalnym.

Nauka rozumiana jako proces zdobywania wiedzy, składa się z pewnego schematu:

— fakty,

— teoria,

— przewidywania,

— fakty.

Według Einsteina, fakty są zarówno punktem wyjścia nauki jak i punktem docelowym.

Nauka pełni określone funkcje. Zaliczamy do nich:

1. opisową – odpowiada na pytanie: „jak jest?”,

2. wyjaśniającą – odpowiada na pytanie: „dlaczego?”,

3. prognostyczną – odpowiada na pytanie: „jak będzie?”,

4. utylitarną – odpowiada na pytanie: „jakie korzyści?”,

5. psychologiczna – odpowiada na pytanie: „jak wpływa na psychikę człowieka”,

6. poznawczą – służy poszerzeniu zasobu wiedzy.

DYSCYPLINA NAUKI musi zawierać takie elementy jak: przedmiot i zakres badań, zadanie badawcze, własna terminologię (język) i metody.

Nauka przyjmuje pewna założenia. Wśród nich spotykamy:

— natura jest uporządkowana i poznawalna,

— przyczyny zjawisk natury są poznawalne,

— w nauce wszystko musi być potwierdzone dowodami,

— wiedza może pochodzić z przesłanek oraz z doświadczenia.

KULTURA FIZYCZNA – jest to nauka wyrażająca określoną postawę wobec własnego ciała, nie jest ona monodyscyplinarna. Jest to świadoma troska o swoje zdrowie, rozwój i sprawność fizyczną. To także umiejętność organizowania oraz spędzania czasu w sposób aktywny, służący utrzymaniu jak najlepszej kondycji psychicznej i fizycznej a także jej polepszaniu.

Kultura fizyczna jest uznawana za multisystem, który tworzą:

sport,

rekreacja,

rehabilitacja.

Każdy z wyżej wymienionych podsystemów, jest na tyle rozbudowany, iż tworzy sam w sobie multisystem. Kultura fizyczna pod względem przedmiotu badań jest uznawana za naukę realną, zaś pod względem metody badań – za naukę empiryczną. Jest ona nauką charakterze praktycznym.

Etapy powstawania wiedzy – punktem wyjścia są teorie empiryczne, czyli to, co stworzono na dany temat; proces badawczy; formułujemy problem badawczy; stawiamy hipotezy; wyznaczamy metody analityczne oraz pomiarowe; tworzymy plany badawcze; wykonujemy pomiary.

Praca nad projektem jest najtrudniejsza, ponieważ polega na zgromadzeniu danych oraz przeprowadzeniu różnych analiz, wyciągnięciu wniosków na temat ich wyników i odpowiedzi na pytanie.

POZNANIE NAUKOWE zawiera dwie grupy czynników, do których zaliczamy:

czynności instrumentalne;

dyspozycje społeczne.

Te zaś tworzone są przez:

— postępowanie badawcze;

— wewnętrzną niesprzeczność;

— twierdzenia i język;

— krytycyzm;

— twórczy charakter;

Człowiek, kierujący się prawami nauki (jej tworzeniem i analizowaniem), cechuje się określonymi cechami psychicznymi. Wśród nich wyróżniamy:

szeroka wiedza na temat przedmiotu badań;

niekonwencjonalność myślenia;

śmiałość;

precyzja i dokładność;

ostrożność;

krytycyzm;

obiektywność;

wszechstronność;

pOZNANIE NAUKOWE ma na celu zdobycie wiedzy. Powinna ją cechować maksymalna ścisłość i prostota, powinna być pewna oraz zawierać maksymalną ilość informacji. POZNANIE NAUKOWE służy osiągnięciu wyższych form wiedzy, jako prawa nauki i teorii.

WIEDZA NAUKOWA charakteryzuje się pewnymi cechami. Zaliczyć do nich można: działanie mające na celu:

uzyskanie zależności przyczynowo skutkowych

ujawnienie związków między pewnymi zadaniami, które zawierają informację zdroworozsądkową;

wyznaczenie granic błędów oraz ewentualnych odchyleń (dopuszczalnych) między przewidywanymi faktami a faktami teoretycznymi;

większa łatwość w obalaniu twierdzeń wiedzy naukowej niż faktów zdroworozsądkowych;

duże znaczenie abstrakcji twierdzeń oraz precyzji w ich formułowaniu;

formułowanie wniosków w oparci o metody badań naukowych;

WIEDZA ZDROWOROZSĄDKOWA cechuje się innymi cechami. Wśród nich wymieniamy:

znacząca nieokreśloność widoczna w nieostrości terminów, w braku precyzji ukazywania różnic między przedmiotami, które zostały oznaczone terminologią wiedzy zdroworozsądkowej.

Poglądy oraz sądy wiedzy zdroworozsądkowej z reguły nie udzielają odpowiedzi na pytanie: „dlaczego tak jest?”;

poglądy wiedzy zdroworozsądkowej nie mogą być kontrolowane metodami monitoringu twierdzeń;

WIEDZA – jest to uporządkowany zbiór licznych informacji, które zostały stworzone przez człowieka, w oparciu o związki człowieka z przyrodą lub systemami abstrakcyjnymi, kreowanymi przez niego.

METODOLOGIA – jest to system ściśle określonych procesów i reguł. To do nich odwołują się badania, które są podstawą ewaluacji wiedzy. System ten nie jest niezmienny ani niezawodny, jest on stale ulepszany. Związany jest z ogółem czynności w obrębie pracy magisterskiej. Metodologia nauki może być rozumiana w dwojaki sposób:

1. w ujęciu pragmatycznym – czyli naukę o procedurach badawczych i metodach naukowej działalności;

2. jako nauka o strukturze i elementach licznych systemów naukowych.

Metodologię możemy podzielić na:

ogólną – obejmuje ona czynności oraz rezultaty w obrębie wszystkich dziedzin, a także relacjonowanie;

szczegółową – która jest dostosowana do odrębnych, poszczególnych nauk oraz ich specyfiki.

Z definicją metodologii związane są takie pojęcia jak:

— strategia badawcza – są to wszystkie czynności, które dotyczą wyboru przedmiotu badań;

— proces badawczy – jest to ciąg działań związany z efektywnym formułowaniem a także rozwiązywaniem problemów badawczych, określaniem skuteczności, w zależności od podjętych decyzji;

— plan badawczy – jest to sposób organizacji bada, który może charakteryzować cykliczność i wielowarstwowość;

Rozwiązywanie problemu badawczego zachodzi w pięciu etapach. Ujmuje je proces badawczy na które składają się:

dostrzeżenie problemu;

stworzenie problemowych sytuacji;

kreowanie pomysłów w rozwiązywaniu problemów;

sprawdzanie oraz weryfikowanie pomysłów;

możliwy jest powrót do problemów wcześniejszych, jest to nazywane sprzężeniem zwrotnym;

proces badawczy to inaczej podejście badawcze. Jest to sposób zdobywania wiedzy. Sposób ten możemy rozpatrywać w różnych wymiarach. Wymiar typu i modelu badań to podstawowe kryterium klasyfikacji procesu badawczego. Proces badawczy może być także klasyfikowany na podstawie stosowanych metod i technik oraz narzędzi badawczych.

METODA NAUKOWA funkcjonuje w oparciu o określone działania poznawcze, takie jak:

hierarchizacja w obrębie grupy czynników;

określenie wpływem głównych czynników na kształt badania;

przedstawienie empirycznej zależności między badanym czynnikiem a innymi, dla niego istotnymi;

TECHNIKI BADAWCZE są to grupy dyrektyw związanych z posługiwaniem się określonymi narzędziami badawczymi.

Innym kryterium klasyfikacji podejścia badawczego są procedury badawcze, czyli sposób organizacji przeprowadzonych badań. Pod względem prakseologicznego spojrzenia na podejście badawczy, możemy je uznać jako proces tworzenia wiedzy. Proces ten składa się z czterech etapów:

1. projekcja problemu badawczego związana z określeniem tematu i celu pracy, typu badań, modeli rozwiązań problemu badawczego, metod analizy danych, sposobu wyboru obiektu do badań;

2. rozwiązanie problemu badawczego – etap ten polega na ustaleniu plany badawczego, określeniu struktury, wskaźników oraz algorytmów pomiarowych jak i analitycznych i wykonaniu pomiarów;

3. generalizacja, czyli uogólnianie i wnioskowanie. Etap ten polega na analitycznym opracowaniu wyników różnych pomiarów, analizy statystycznej, merytorycznej oraz logicznej z uzyskanych wyników, formułowaniu wniosków i aplikacjach;

4. weryfikacja wiedzy – etap ten polega na analizie teorii i umożliwia rozpoczęcie kolejnego cyklu badań. Najważniejszą cechą podejścia badawczego jest wielowarstwowość i cykliczność jego struktury. Z reguły zaczyna się postawieniem problemu, zaś kończy uogólnieniami. Sformułowany wnioski, w obrębie jednego cyklu, staja się początkiem następnego. Proces ten cyklicznie powtarza się, może być nieskończony, co wskazuje na stopień zaawansowania i rozwoju danej dziedziny naukowej. Podejście badawcze to zjawisko, które samokoryguje się, bowiem uzyskane wnioski bądź hipotezy są wielokrotnie analizowane.

ETAP PROJEKTOWANIA PROBLEMU BADAWCZEGO – etap ten składa się z podetapów. Zaliczamy do nich:

1. Ustalenie tematu pracy. Ustalenie tematu pracy polega na zorientowaniu się w tym, co jest znane, a co jeszcze nie jest, czyli na zdobyciu wiedzy na temat badań związanych z interesującym nas problemem. Należy zapoznać się z treścią i implikacjami teorii naukowej, określić znaczenie i wagę wybranej problematyki (w szczególności aspektów istotnych dla bliższego poznania badanego zjawiska lub procesu). Określamy podstawowe zależności związane z badaniem oraz wyznaczamy przypuszczalne efekty badań (z uwzględniłem podziału na teoretyczne, praktyczne i aplikacyjne rezultaty).

ogólny cel badań – czyli dążenie do poszerzenie wiedzy związanej z wybranym przedmiotem badań (osoby, rzeczy, zjawiska).

Szczegółowy cel badań – jest z reguły związany z odpowiedzią na pytania badawcze.

Aplikacyjny cel badań – oznacza iż każda praca ma za zadanie wniesienie jakiś nowych informacji do praktyki.

Na tym etapie ważne jest uszczegółowienie praktyki, czyli tak zwana eksplikacja problemu badawczego oraz wdrażanie i stosowanie pojęć i terminologii w obrębie kategorii operacyjnych – tak zwana operacjonalizacja problemu badawczego.

2. Problem badawczy – jest to rodzaj zadania. Jego podmiot nie może zostać rozwiązany na podstawie posiadanej wiedzy. Rozwiązanie tego problemu jest możliwe jedynie dzięki produktywnemu myślenie prowadzącego do zwiększenia wiedzy przedmiotu. Uogólniając, problem badawczy, to pytanie lub grupa pytań, a odpowiedzi na nie ma właśnie dostarczyć badanie. Z sformułowaniem problemu badawczego związane są trzy terminy:

sytuacja problemowa – jest to stan niepokoju, będący wynikiem świadomości braku wiedzy;

problem – jest to logiczne ujęcie niewiedzy;

pytanie problemowe – jest to gramatyczna konstrukcja, która wyraża problemową sytuację i jednocześnie jest językowym odpowiednikiem problemu;

Wyróżnimy dwa rodzaje pytań:

— pytania rozstrzygnięcia – są to takie pytania jak „Czy?”. Na te pytania odpowiadamy jedną z dwóch odpowiedzi: „tak” albo „nie”.

— pytania dopełnienia – są to takie pytania jak: „jaki?”, „który?”, „gdzie?”. Na te pytania jest wiele różnych odpowiedzi.

Konkretnymi odpowiedziami na te pytania są wnioski.

Stawianie pytań oraz formułowanie problemów ma swoją procedurę. W niej wyróżnimy kilka etapów:

ustalenie problemu jako pytanie badawcze oraz sprawdzenie znaczenia wszystkich pojęć, które zostały użyte w sformułowanym pytaniu;

analiza problemu, opierająca się na ustaleniu zakresu pytania oraz danych w nim zawartych, a przede wszystkim określeniu niewiadomej pytania oraz kategorii w której ona się zawiera;

określenie problemu w kategorii jego prostoty lub złożoności;

w przypadku problemu sformułowanego jako pytanie dopełnienia należy przeprowadzić dychotomizację, a więc przekształcić je w pytanie rozstrzygnięcia.

3. Rodzaje badań:

podstawowe inaczej nazywane poznawczym, ich celem jest zwiększenie wiedzy określonej dyscypliny naukowej przez stworzenie ogólnych praw naukowych.

Stosowane inaczej zwane empirycznymi, służą one formułowaniu wniosków, wdrażanych do praktyki, co służy poprawie efektywności jej działania. Do tego typu badań zaliczamy pracę: odtwórcze, opisowe, wyjaśniające i weryfikacyjne.

Jakościowe i ilościowe – są postrzegane na poziomie koordynacji czynności badawczych, które stanowią schematy badawcze: badanie porównawcze, studium przypadku, eksperyment, badanie etnograficzne.

Diagnostyczne – najczęściej spotykane one są w sporcie i związane są z orzekaniem o aktualnym stanie zjawiska lub procesu;

predyktywne – związane są z formułowaniem prognozy rozwoju określonego przedmiotu badań oraz jego przydatności w procesie treningowym.

Badania możemy podzielić także biorąc pod uwagę ich czas trwania. Ze względu na to kryterium wyróżnimy badania:

przekrojowe (transwersalne) – opierające się głownie na jednorazowych pomiarach;

ciągłe (podłużne, longitudinalne) – które opierają się na wielu badaniach dokonywanych w długim czasie, dotyczących tej samej próby.

Półciągłe (podłużne, semilongitudinalne) – opierają się na wielu badaniach tej samej próby, dokonywanych jednak przez czas krótszy niż w longitudinalnym.

Badania możemy podzielić także według zakresu badanych zjawisk:

badania kompleksowe;

badania przyczynkarskie (są trudne do rozwiązanie, ze względu na złożoność przedmiotu badań);

Kolejny podział umożliwia pogrupowanie badań na:

synchroniczne;

asynchroniczne;

METODA jest to powtarzalny sposób służący rozwiązaniu określonego zagadnienia. Jest to formułowanie stwierdzeń drogą dedukcji bądź wnioskowania indukcyjnego. To także zespół zabiegów koncepcyjnych i narzędzi, które obejmuje całość postępowania badawczego, zmierzający ku rozwiązaniu problemu. Metodę powinna cechować celowość, trafność, aby była jak najbardziej efektywna.

Metody badań (heurystyczne):

— obserwacja – jest to najbardziej wszechstronna i jednocześnie najtrudniejsza metoda. Jest to planowane, zamierzone oraz systematyczne gromadzenie faktów i zdarzeń oraz ich analiza. Obserwacje cechuje: brak ingerencji badacza w proces, który jest analizowany; dokładny opis procesu danej rzeczywistości; pomiar i rejestracja pojedynczych faktów i czynności; planowość, celowość, systematyczność, aktywność, premedytacja. Jest to samodzielna metoda jak i badawcza technika czy metoda uzupełniająca

— eksperyment – jest to zabieg, który polega na wprowadzeniu przez badacza zaplanowanej zmiany jednego czynnika lub grupy czynników w badanym procesie, przy jednoczesnym monitoringu pozostałych czynników. Eksperyment ma na celu uzyskanie odpowiedzi na pytanie, dotyczące skutków wprowadzonej zmiany. Procedura eksperymentalna zachodzi w kilku etapach:

manipulowanie przynajmniej jedną zmienną niezależną;

monitorowanie;

minimalizowanie wpływów zmiennych niezależnych, zakłócających pomiar zmiennej zależnej;

pomiar zmiennej zależnej będący wynikiem zmiennych niezależnych głównych;

Eksperyment charakteryzuje się aktywnymi zależnościami między badaczem a poznawaną rzeczywistością. Jest związany z celową zmianą warunków obserwacji. Innymi słowy jest to rodzaj doświadczenie, polegający na wywoływaniu zmian w obrębie ściśle określonych zjawisk i procesów w warunkach kontrolowanych. Ma to na celu poznanie związku przyczynowego między zachodzącymi zjawiskami.

Eksperymenty możemy podzielić na:

eksperyment klasyczny (pedagogiczny) – związany z analizą procesu wychowania i nauczania, bada efekty zmian procesów pedagogicznych, stworzonych przez badacza w warunkach kontrolowanych przez niego;

eksperyment modelowy – związany jest z użyciem matematycznego modelu w celu przeprowadzenia komputerowych symulacji różnych zjawisk i procesów, które są związane z użyciem czynnika ruchu w obrębie wychowania fizycznego;

Metoda eksperymentalna zawiera pewne elementy. Zaliczamy do nich:

przyjęcie bodźca, czynnika eksperymentalnego; założenie przewidywanego kierunku zmian, wywołanych przez ten czynnik;

przebieg procesu sprawdzającego słuszność przypuszczeń tak zwanej hipotezy roboczej;

obserwacja i notowanie wyników wpływu czynnika eksperymentalnego na zmienną zależna;

Czynniki ekip. nazywane są zmiennymi niezależnymi, czyli całkowicie pozostającymi zależne od eksperymentatora. Zmienne zależne są to zmiany, które są wynikiem czynników ekip., czynniki te źródłem tych zmian.

Walory metody eksperymentalnej:

możliwość zamierzonego planowanego wywołania zmian wpływających na badane zjawiska,

możliwość częstego powtarzania określonego badania, powodowania zmian i wywołania określonej czynności w dowolnej liczbie (w obserwacji nie ma takiej możliwości);

możliwość ujednolicania warunków badanych warunków i kontrolowanie ich;

umożliwienie kreowania wybranych sytuacji, mających wpływ na przebieg określonego zjawiska, zależnego od dowolnej ilości czynników;

możliwość przeprowadzania pomiarów wielowymiarowych; możliwość zmierzenia częstotliwości pojawiania się analizowanych procesów;

Badania eksperymentalne mają także przeciwwskazania do ich przeprowadzania. Wśród nich wymieniamy:

moralne granice eksperymentu – jest niedopuszczalne narażanie osób które są badane na negatywne skutki błędnie zaprojektowanych badań;

brak celowości w założeniu czynnika wprowadzającego zmiany – nie wiadomo co wynika z eksperymenty, po wprowadzeniu zmiennej niezależnej;

Związki przyczynowo-skutkowe mogą być wykreowane za pomocą, sformułowanych przez Mille’a, pięciu kanonów. Zaliczamy do nich:

kanon jedynej zgodności;

kanon jednej różnicy;

kanon zmian towarzyszących;

kanon reszty.

Istnieją różne techniki eksperymentalne. Zaliczamy do nich:

technikę jednej grupy;

technikę grup równoległych;

technikę rotacji.

SONDAŻ DIAGNOSTYCZNY jest to sposób nagromadzenia wiedzy, związanej z atrybutami strukturalnymi i funkcjonalnymi zjawisk. Poszerzenie tej wiedzy opiera się o badania odpowiednio dobranej grupy, która reprezentuje ogół populacji, w której pojawia się badane zjawisko. Do diagnozowania potrzebne jest rozpoznawanie różnych cech, charakterystycznych dla jednostki, uwarunkowanych genetycznie bądź środowiskowo oraz prawidłowości związanych z rozwojem. Stosowanie sondażu diagnostycznego umożliwia wyjaśnianie wielu zjawisk masowych oraz ważnych procesów, które występują w zbiorowości, grupie. Istniej kilka typów badań sondażowych. W praktyce najczęściej stosuje się:

sondaż jednorazowy na próbie nieważonej – obiekt badań jest wybierany drogą losową;

sondaż jednorazowy na grupie ważonej – obiekt badań nie jest wybierany losowo;

sondaż na grupie kontrastowej – próby eksperymentalne są dobierane w oparciu ważną zmienną, która jest ważna dla badania;

sondaż powtarzany – jest stosowany gdy niezbędne jest badanie, które ocenia zmiany;

MONOGRAFIA SPORTOWA – celem monografii sportowej jest analiza określonego zjawiska lub określonej właściwości grupy zawodników bądź instytucji. Opis ten polega na wyodrębnieniu cech zjawiska, określeniu jego charakteru, wielkości a także charakterystyce jego funkcjonowania i rozwoju. Metoda ta należy do łatwiejszych w stosowaniu, dlatego często jest stosowana w systematycznej weryfikacji rzeczywistych oraz złożonych funkcji różnorakich instytucji, ich planowaniu i ulepszaniu.

Analiza przypadków pojedynczych – metoda ta jest stosowna rzadziej ponieważ dotyczy wybitnych jednostek, nie pasujących do grupy. Stosowana jest także w przypadku chęci zdobycia dużych ilości informacji na temat określonej jednostki. Badania takie mogą być przeprowadzane jako monograficzne lub analizy serii czasowych.

Ogólnie metody dzielimy na:

metody heurystyczne;

metody matematyczne;

Metody heurystyczne – tą metodą są rozwiązywane problemy o strukturze nieokreślonej. Do metod heurystycznych zaliczmy: za i przeciw, dialog sokratejski, metodę pytań, programowanie heurystyczne, metodę Kartezjusza, metodę morfologiczną, metodę Poly’a, burzę mózgów, seminarium rozwiązywania zadań, inwentykę, metodę rekursji, grę ze słowami, syntetykę, algorytm rozwiązywania zadań Altszullera, IPID, gra ze słowami, metodę systemową.

Oto opis niektórych z tych metod:

Burza mózgów – metoda ta charakteryzuje się dwiema dyrektywami. Pierwsza z nich nakazuje poszukiwania idei rozwiązania. Zaś druga zaleca dbałość o jakość, która tworzy ilość. Skład grupy biorącej udział w burzy mózgów: lider, sekretarz, pięciu stałych członków, sześciu uczestników zaproszonych. Sesja rozpoczyna się wyliczeniem pytań. Lider przedstawia reguły gry, która charakteryzuje się brakiem krytyki, dużą liczbą pomysłów, ich ulepszaniem, grą wyobraźni oraz współpracą, będącą podstawą do osiągania większych sukcesów. Proces rozwiązywania zadania cechuje się określonymi działaniami:

odkrywanie faktów;

postawieni zadania, opierające się na ustaleniu potencjalnych zadań składowych oraz wyborze zadań rzeczywistych;

określenie zadania (odkrywanie potencjalnego zbioru danych oraz wybór rzeczywistego zbioru danych);

odkrywanie idei rozwiązania (kreowanie pomysłów rozwiązywania i doskonalenie ich);

odkrywanie rozwiązań;

wartościowanie rozwiązań;

wybór rozwiązań – wybór prawidłowego rozwiązania w oparciu o przewidywanie następstw jego wyboru;

Metoda delficka – czyli metoda ekspertyzy, ma ona na celu określenie perspektyw rozwoju wybranej dziedziny. Ma bardzo duże znaczenie w nauce o sporcie. Wiąże się z powołaniem wybranej grupy roboczej, ta zaś wyłania grupę ekspertów z zespołu specjalistów danej dziedziny. Powołani eksperci maja za zadanie udzielenie odpowiedzi na pytania z określonej dziedziny. W metodzie tej można wymienić kilka etapów:

etap pierwszy – przedprognozowa orientacja, zdobyta przez analizę podstawowych kierunków rozwoju danej dziedziny;

etap drugi – opracowanie schematu „cele – środki”;

etap trzeci – opracowanie tablic ekspertyzy zawierających dane na temat zagadnień przedstawionych ekspertom;

METODA IDEALS – metoda ta polega na całościowym badaniu wybranego zadani, a nie tylko elementu jego systemu. Rozpatruje ona system w aspekcie jego rozwoju przewidywanego w przyszłości, nie kierując jego stanem obecnym. Za pomocą tej metody nie bada się szczegółów określonego działania, ale tak zwany idealny stan systemu, który może być osiągnięty w przyszłości. Elementy składające się na tę metodę to:

wyznaczenie celów oraz zadań;

formułowanie funkcji, doprowadzających do realizacji;

określanie zasad, według których powinno się kierować podczas procesu działania a także określenie kryteriów oceny;

dobór racjonalnych metod rozwiązywania problemu;

metoda ta jest pochodną koncepcji systemu idealnego, a nie wynikiem syntezy. Głównym założeniem tej metody jest wzrost efektywności systemu oraz twórczy rozwój uczestników działania.

METODA PATTERN – oznacza ona wspomaganie planowania, opierające się na względnym współczynniku oceny technicznej. Dzieli ona zadanie podstawowe na zbiór drobniejszych zadań składowych, które ocenia i wyjaśnia.

TECHNIKA BADAŃ – do technik tych zaliczmy:

symulację komputerową,

testy ruchowe;

testy laboratoryjne (psychologiczne i fizjologiczne);

modelowanie;

biochemiczne oznaczanie związków;

ankietę;

obserwację;

badanie dokumentów;

wywiad;

Technika badań to czynności techniczne umożliwiające zdobycie optymalnie sprawdzonej wiedzy.

NARZĘDZIA BADAWCZE – narzędziem badawczym nazywany przedmiot, który służy do realizacji wybranej przez badacza techniki. Za ich pomocą zdobywamy informacje. Wśród nich wyróżnimy:

ankiety;

arkusz kalkulacyjny;

testy dydaktyczne;

kwestionariusze;

testy socjometryczne;

arkusze obserwacji;

testy określające inteligencję oraz sprawność fizyczną;

ergometr;

twierdzenia i definicje;

komputer;

algorytmy numeryczne;

model matematyczny;

Metoda to pojęcie najszersze i nadrzędne w porównaniu z pojęciem techniki oraz narzędzia, zaś podrzędna technika wobec metody jest nadrzędna wobec narzędzia.

Poznanie, proces zmysłowo-psychiczny, intelektualny i doświadczalny, właściwy człowiekowi, mający na celu:

1. zdobywanie wiedzy o świecie i o samym sobie.

2. określenie stosunku do innych bytów, zjawisk i usytuowanie siebie wśród nich.

3. podjęcie działalności praktycznej i twórczej.

Poznanie stanowi jedną z podstawowych kategorii filozofii, a szczególnie teorii poznania i epistemologii, zajmujących się istotą poznania, procesami zdobywania przez człowieka wiedzy o rzeczywistości i o sobie samym, drogami do niej wiodącymi, jak też całokształtem tej wiedzy, jej sprawdzalnością, prawdziwością i użytecznością.

Współcześnie poznanie poza filozofią jest także przedmiotem badań szczegółowych: psychologii, naukoznawstwa, dydaktyki, rozumianych jako proces uczenia się, nauczania i zastosowania rezultatów poznania.

Wiedza

Brak wersji przejrzanej

Personifikacja wiedzy (gr. ??????µ?) w Bibliotece Celsusa w EfezieWiedza – termin używany powszechnie, dotychczas nie posiada jeszcze ogólnie uznanej definicji. Za klasyczną uznaje się definicję Platona z dialogu Teajtet, gdzie Sokrates w rozmowie z Teajtetem dochodzi do sformułowania definicji, że wiedza to prawdziwe, uzasadnione przekonanie. Nowa Encyklopedia Powszechna definiuje wiedzę jako „ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnością ich wykorzystywania”.

Można powiedzieć, że

dzięki wiedzy jesteśmy skuteczni w działaniu,

wiedza jest przeciwieństwem wiary,

wiedzą jest to, co wytwarza nauka

wiedza usprawnia nasze myślenie,

ale w różnych zastosowaniach termin ten odwołuje się do różnych kontekstów.

Mówi się o wiedzy praktycznej i teoretycznej (to rozróżnienie ma swoje źródło u Arystotelesa). Jeśli przeczytaliśmy w książce, że najszybszym stylem pływackim jest kraul i zgadzamy się z przytoczoną argumentacją, to jest to przykład potocznie rozumianej nabytej wiedzy teoretycznej (lub zaakceptowanej informacji). Z posiadania tej wiedzy/informacji nie wynika jednak, że potrafimy sami pływać tym stylem. Aby się tego nauczyć, czyli posiąść praktyczną wiedzę polegającą na umiejętności pływania kraulem musimy się najpierw dowiedzieć, jakie należy wykonywać ruchy w trakcie pływania, a następnie przejść dość żmudną, praktyczną lekcję wykonywania tych ruchów w wodzie własnymi kończynami.

Spis treści

1 Ogólne pojęcie wiedzy

2 Pojęcie wiedzy w filozofii

3 Pojęcie wiedzy w psychologii kognitywnej

4 Pojęcie wiedzy w ekonomii

5 Pojęcie wiedzy w badaniach nad sztuczną inteligencją

6 Infologia

7 Meta-wiedza

8 Zarządzanie wiedzą

9 Przypisy

Ogólne pojęcie wiedzy

Wiedza to ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnościami ich wykorzystywania.

Możemy ją jeszcze dodatkowo podzielić:

Wiedza (a priori) jest niezależna od zmysłów i dotyczy prawd „absolutnych” lub uniwersalnych jakimi są prawa logiki, prawa matematyki.

Wiedza (a posteriori) jest wiedzą nabytą poprzez zmysły i jej prawdziwość może być obalona poprzez następne obserwacje.

Pojęcie wiedzy w filozofii

Osobny artykuł: epistemologia.

W filozofii zagadnienie wiedzy rozważa epistemologia. Dwa główne problemy filozoficznej teorii wiedzy to sformułowanie definicji i kryterium wiedzy. Podstawową intuicją dotyczącą pojęcia wiedzy jest, że wiedza powinna być weryfikowalna (szuka się więc kryterium weryfikacji przekonań) i komunikowalna (dowodzi się więc możliwości komunikacji między osobami i szuka się kryteriów komunikowalności). Filozofowie nie są jednak jednomyślni co do tego, jak poprawnie weryfikować zgodność zawartości umysłu (spostrzeżenia, teorie, przekonania, sądy) z zewnętrzną rzeczywistością. Niektórzy podważają nawet taką możliwość. Za wzór wiedzy wielu filozofów uznaje dedukcję i aksjomatyczne systemy matematyki. indukcja, podstawa rozumowania nauk przyrodniczych, jest już trochę bardziej podejrzana (por. krytyka Hume’a, Popper). Tzw. tradycyjną definicję wiedzy (której sformułowanie przypisuje się Platonowi), zgodnie z którą jest ona prawdziwym i uzasadnionym mniemaniem, podważył E. Gettier. Przykłady podważające adekwatność definicji określane są mianem paradoksu Gettiera.

Pojęcie wiedzy w psychologii kognitywnej

W psychologii, szczególnie kognitywnej w szerokim rozumieniu wiedza to np.

ogół treści utrwalonych w umyśle ludzkim w wyniku kumulowania doświadczenia oraz uczenia się. (…) W węższym znaczeniu wiedza stanowi osobisty stan poznania człowieka w wyniku oddziaływania na niego obiektywnej rzeczywistości [1].

Często zamiast pojęcia „wiedza” używa się terminu „pamięć”.

Pojęcie wiedzy w ekonomii

Ta sekcja jest zalążkiem. Jeśli możesz, rozbuduj ją.

W ujęciu ekonomicznym traktowana jest dwojako: jako informacja oraz jako aktywa (assets). W pierwszym ujęciu wiedza jest traktowana jako informacje, które mogą być przetwarzane i wykorzystywane do podejmowania racjonalnych decyzji ekonomicznych. W drugim ujęciu stanowi ona dobro ekonomiczne, które może być prywatną własnością i jako towar może być przedmiotem obrotu rynkowego.[2].

W ekonomii przedstawia się stwierdzenie, że dotychczas ekonomiści traktowali wiedzę jako zasób firm potrzebny do wytwarzania zysku. Według tego poglądu każda firma działa na podstawie posiadanej wiedzy – „firma jako przechowalnia wiedzy”[3].

Pojęcie wiedzy w badaniach nad sztuczną inteligencją

Ta sekcja jest zalążkiem. Jeśli możesz, rozbuduj ją.

W badaniach nad sztuczną inteligencją wiedzę traktuje się jako materiał wejściowy albo efekt działania algorytmów sztucznej inteligencji. Inaczej rzecz ujmując, część metod sztucznej inteligencji zajmuje się próbami formalizacji ludzkiej wiedzy celem automatycznego wnioskowania (np. systemy ekspertowe). Znane jest też odwrotne podejście. Dzięki zastosowaniu tych metod w dużych zbiorach danych można odnaleźć wiedzę o ich naturze (np. sieci neuronowe, algorytmy genetyczne, ekstrakcja wiedzy z danych).

Infologia

W infologii wiedza to układ opisany wyrażeniem w := < I, C, D >, gdzie w oznacza wiedzę, I – informacja, C – kontekst, D – doświadczenie [4]. Zatem źródłem wiedzy odbiorcy jest tu informacja, na której odbiór ma wpływ kontekst sytuacyjny oraz posiadane przez odbiorcę doświadczenie. Na gruncie infologii wiedza może być również wyrażona jako zbiór zdań, które z informacji I pozwalają wyciągać wnioski V. Można zatem zapisać, że „w := { «jeżeli I (K, U, Q), to V»}, gdzie V oznacza wniosek, jaki doświadczony człowiek U jest gotów sformułować na podstawie informacji I (K) rozpatrywanej w kontekście problemu Q” [5].

Meta-wiedza

W podejsciu systemowym, systemów socio-kognitywnych, definicja wiedzy została uściślona, odseparowana od pojęcia informacji i preferencji, i sformułowana na gruncie kognitywistyki oraz podejścia systemowego w meta-teorii TOGA,[6]. Taka perspektywa daje potencjalnie szerokie możliwości operacji na wiedzy i umożliwia budowę nowych naukowych podstaw meta-wiedzy i inżynierii wiedzy. Tu, każda wiedza odnosi się zawsze i wyłącznie do określonego źródła informacji, np. do Układu Słonecznego, lub jakiejś dziedziny ludzkiego działania. Na przykład:

x=yz nie jest wiedzą, ale jeśli dostaniemy informację że: x to F (siła), y to m (masa) i z to a (przyspieszenie), to wyrażenie to staje się wiedzą bo w ten sposób rozpoznaliśmy fizykę jako dziedzinę jego zastosowania.

Syntetycznie mówiąc,

wiedza jest tym co przekształca informację w nowa informację lub w nową wiedzę, czy nowe preferencje, a preferencje są tym co wskazuje jaką wiedzę użyć[7].

Relatywizm tak zdefiniowanej wiedzy polega na tym, że to co jest wiedzą w dziedzinie D1 może nie być wiedzą w dziedzinie D2, i co za tym idzie, to co jest wiedzą dla pewnej osoby (lub grupy ludzi lub robota) nie jest wiedzą dla innej. Wymagane warunki na wiedzę spełniają np. prawdziwe w określonej dziedzinie: reguły, procedury, instrukcje, modele i teorie. W ten sposób informacje (z dziedziny D) sa danymi dla wiedzy (określonej na dziedzinie D). Wg Gadomskiego, ten rzeczywisty wzajemny relatywizm informacji i wiedzy powoduje systematyczne mylenie tych abstrakcyjnych pojęć.

Formy wiedzy

Proceduralna lub operacyjna – Wskazuje jak osiągnąć zamierzone cele, czyli stanowi zastaw procedur, funkcji lub czynności, pozwalających osiągnąć zamierzone rezultaty.

Deklaratywna lub opisowa – Może być formalna i nieformalna. Dotyczy opisu stanu/sytuacji obiektów/dzialań oraz pojęć i związków między nimi, i wskazuje, czego dotyczy dany problem, i co ma być celem rozwiązania, a nie jakie kroki przedsięwziąć, aby uzyskać to rozwiązanie. Przykładem takiej wiedzy są modele i teorie.

Zarządzanie wiedzą

W latach osiemdziesiątych zaczęła się rozpowszechniać koncepcja zarządcza traktująca wiedzę jako punkt wyjścia przy analizie funkcjonowania organizacji (zarządzanie wiedzą). Pojawiły się nawet koncepcje firmy jako przechowalni wiedzy, czy firmy jako zbioru procesów transferu wiedzy.

Przypisy

^ Pondel M.: Wybrane narzędzia informatyczne pozyskiwania wiedzy i zarządzania i wiedzą, Prace Naukowe Akademii Ekonomicznej we Wrocławiu nr 975, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2003, s. 372

^ S. Łobesko: Systemy Informacyjne w Zarządzaniu Wiedzą i Innowacją w Przedsiębiorstwie. Szkoła Główna Handlowa. Warszawa 2004, s. 33

^ Nonaka I., Takeuchi H.: Kreowanie wiedzy w organizacji. Jak spółki japońskie dynamizują procesy innowacyjne, Polska Fundacja Promocji Kadr, Warszawa 2000, s. 55

^ Stefanowicz B.: Informacja, Szkoła Główna Handlowa w Warszawie, Warszawa 2004

^ Stefanowicz B.: Informacja, Szkoła Główna Handlowa w Warszawie, Warszawa 2004, s. 123

^ Gadomski A. M.: Włoska Krajowa Agencja Naukowo-Badawcza ENEA, 1993

^ Adam Maria Gadomski, ENEA’s e-paper, page since 1999, last updating 15 Dec. 2005 on the MKEM Server

Źródło „https://pl.wikipedia.org/wiki/Wiedza”

Wiara

Z Wikipedii

Brak wersji przejrzanej

Wiara jest terminem wieloznacznym. W mowie potocznej oznacza przekonanie o czymś. W religioznawstwie natomiast polega na przyjęciu istnienia lub nie istnienia czegoś bez żadnego dowodu wiarygodnie potwierdzającego ten fakt. Świadoma decyzja przyjęcia takiej wiary nazywa się aktem wiary. W epistemologii wiara to „uznawanie za prawdziwe nieuzasadnionego twierdzenia”. Zarówno uzasadnienie jak i jego brak nie implikują prawdziwości lub fałszywości treści wiary (zob. problem uzasadnienia).

Chrześcijańskie rozważania nad wiarą koncentrowały się wokół wersów 1–2 w 11 rozdziale Listu do Hebrajczyków, który przedstawiając owoce wiary (gr. pistis) definiuję ją jako hupostasis, co może być tłumaczone jako podstawa (w Biblii Tysiąclecia nawet poręka), albo jako substancja. Idąc za pierwszym rozumieniem tego słowa Święty Tomasz przedstawia wiarę jako przyrodzony stan umysłu, polegający na pewności prawd nie z racji dowodów rozumowych, ale przez przyjęcie świadectwa autorytetu, wynikająca z zaufania (wiarą chrześcijańska, czyli zaufanie do Kościoła jest nadto łaską oraz cnotą teologiczną).

Postrzeganie wiary jako duchowej substancji udzielonej do wnętrza serca człowieka, która następnie powoduje osobiste doświadczenie dogłębnego przekonania o czymś czego nie postrzegają zmysły jest często przyjmowane w teologii ewangelickiej. Współczesny katechizm Kościoła katolickiego kładzie nacisk na jeszcze inny, również nadprzyrodzony charakter wiary, określając ją jako relację z Bogiem: „Wiara jest osobowym przylgnięciem człowieka do Boga: równocześnie i w sposób nierozdzielny jest ona dobrowolnym uznaniem całej prawdy, którą Bóg objawił” (KKK 176).

Zobacz też

Zobacz w Wikicytatach kolekcję cytatów związanych z pojęciem „wiara”

Źródło „https://pl.wikipedia.org/wiki/Wiara”

1. Pojęcie praktyki

Całościowa praktyka stanowi podstawę ludzkiego działania. Można wyróżnić praktykę ekonomiczną, etyczną, pedagogiczną, polityczną, estetyczną, religijną.

Istnieją dwa sposoby rozumienia pojęcia „praktyka”. Zgodnie z pierwszym, węższym, wywodzącym się od Platona i popularnym w starożytności, praktyką jest wolne działanie w granicach etyki i stosownie do jej nakazów. Praktyka w tym rozumieniu oznacza zarówno przyjazne stosunki między ludźmi, jak i ich wspólne działanie polityczne. Praca i sztuka nie należą do tak rozumianej praktyki, stanowiąc różne formy twórczości, a relacje między pracującymi nie odgrywają zasadniczej roli.

Zgodnie z szerszym rozumieniem praktyki, przyjmowanym obecnie, należą do niej wszelkie formy ludzkich działań, nie tylko w obrębie indywidualnej moralności i publicznej polityki, ale także relacje między pracującymi, sztuka, ekonomia, działania pedagogiczne i religijne.

O praktyce mówimy wyłącznie w odniesieniu do człowieka, nigdy względem zwierząt czy bóstw. Praktyka ma podwójne znaczenie: po pierwsze oznacza możliwość stworzenia czegoś w sposób zamierzony, intencjonalny, dzięki podejmowaniu określonej aktywności lub określonego działania; po drugie praktyka jest próbą odwrócenia złego losu lub kryzysu doświadczanego przez człowieka. Zwierzętom odmawia się możliwości działania intencjonalnego, zaś bóstwa nie muszą odwracać złego losu.

Działanie może więc być określane mianem praktyki, gdy ma swoje źródło w niedoskonałości lub kryzysie człowieka i gdy niweluje ten kryzys, oraz gdy człowiek zyskuje dzięki niemu powołanie będące wynikiem jego aktywności. Praktyka nie znosi niedoskonałości natury ludzkiej, nadaje jej jednak określony kierunek. Gdyby praktyka doprowadziła do zniesienia niedoskonałości, zatraciłaby swój humanitarny charakter.

Przykładem praktyki jest praca, która towarzyszyła człowiekowi od początku jego istnienia, gdyż istniała konieczność zabezpieczenia podstaw istnienia ludzi poprzez eksploatację natury.

Praktyką jest także działanie etyczno-moralne, które przezwycięża kryzys ludzkiego współdziałania, które nie jest sterowane wzorcami wrodzonymi. Reguły i normy etyczne nie ustalają bezpośrednio sposobu działania, ale znajdują zastosowanie w zmieniających się sytuacjach.

Praktyką jest działanie polityczne, gdyż ma ono swe źródło w konieczności planowania społecznej przyszłości.

Działanie religijne jest praktyką żywych skierowaną na świat umarłych. Odnosi się do osiągnięcia porozumienia w kwestii sensu bytu ludzkiego.

Praktyką jest sztuka, generująca prezentacje świata, konfrontujące nas ze złożoną strukturą napięć między poszczególnymi praktykami.

Sześć form praktyki: polityka, pedagogika, etyka, praca, religia i sztuka są zapośredniczone cielesnością, wolnością, historycznością i werbalnością czyli wzajemnie niehierarchicznie powiązane ze sobą przy poszanowaniu cielesności, wolności, historyczności i werbalności. Błędem jest traktowanie ciała tylko jako organizmu (przy redukcji praktyki), ale i tylko jako maszyny (przy przecenianiu praktyki) – w rzeczywistości cielesność jest jednym i drugim, albo ani jednym ani drugim. Błędem jest traktowanie wolności tylko jako wolności wyboru, ale i jako wolności arbitralnej. Błędem jest traktowanie historyczności w ten sposób, że człowieka postrzega się tylko jako ofiarę historii, ślepego losu, fatum, ale i jako pana historii. Wreszcie błędem jest postrzeganie języka jako odbicia świata, ale i tylko jako określonej konwencji.

2. Podwójne zagrożenie praktyki

Istnieją dwa potencjalne zagrożenia dla praktyki. Pierwsze związane jest z różnicowaniem się sześciu podstawowych przejawów ludzkiego współżycia. W założeniu (zgodnie z ideą) powinny się one znajdować w reakcji niehierarchicznej, tak jednak nie jest w rzeczywistości.

Działania religijne dzięki temu mogą być odróżnione np. od estetycznych czy politycznych. Jednak zrównoważone uznanie poszczególnych przejawów ludzkiego współżycia może być trudne, gdyż jeden z obszarów praktyki uzyskuje przewagę nad innymi. W rzeczywistości sześciu podstawowych rodzajów praktyki nie można od siebie wywodzić, są one bowiem konstytuujące i pierwotne dla sposobu, w jaki ludzie egzystują jako niedoskonałe, cielesne istoty, które poszukują powołania dzięki wolnej, historycznej oraz językowej praktyce. Jeśli neguje się ideę równorzędności wszystkich obszarów praktyki i przyznaje pierwszeństwo jednemu z nich, wówczas zagrożony jest prymat całościowej ludzkiej praktyki.

Przykładem wynaturzenia, w którym neguje się równorzędność wszystkich sześciu obszarów praktyki, są systemy teokratyczne, w których religia sprowadzana jest do rangi jedynej instancji wydającej sądy we wszystkich dziedzinach ludzkiego działania. Podobnie nieracjonalne są systemy ekonomiczne, w których każde działanie ludzkie rozpatruje się pod kątem produktywności. Inny przykład to polityczne systemy totalitarne, które roszczą sobie prawo do normowania całościowej ludzkiej praktyki, a także systemy pedagogiczne, które wszystko podporządkowują kształtowaniu nowego człowieka przez wyposażanie go w kompetencje do działania.

Drugie zagrożenie występuje wówczas, gdy relacje między obszarami praktyki nie są zapośredniczone ogólnymi pojęciami produktywnej cielesności, wolności, historyczności oraz werbalności, które nie opierałyby się ani na fatalizmie, ani na panowaniu. Dochodzi wówczas do zaburzenia relacji między rozumem teoretycznym i praktycznym. Dawniej w ramach wiedzy usiłowano uporządkować doświadczenia i sprowadzić je do ogólnych formuł. Obecnie nauka nie przechodzi od doświadczenia do wiedzy, ale teoretycznie zakłada doświadczenie przyszłe i konstruuje konkretny przedmiot poznania. Jest ukierunkowana na matematyczne wyjaśnienie wszystkich aspektów rzeczywistości. Popper opisuje naukę jako próbę zaciskania sieci wyjaśnień i panowania nad światem. Nauka z jednej strony jest zgodna z eksperymentalnym i projektowym charakterem ludzkiej praktyki, z drugiej usiłuje zdobyć przewagę nad innymi obszarami praktyki, przy czym przewaga ta miałaby być skierowana wyłącznie na intensyfikację wiedzy.

To drugie oblicze nauki stanowi zagrożenie dla praktyki. Aby mu przeciwdziałać, należy odróżnić wiedzę naukową od sposobu postępowania z tą wiedzą. Między wiedzą a podejściem do niej musimy racjonalnie i refleksyjnie zapośredniczyć w myśleniu i działaniu. Wiąże się z tym postrzeganie przyrody nie jako podbitej, posłusznej we wszystkim człowiekowi, ale jako natury istniejącej również bez naszego współudziału, do której należymy, bo jesteśmy jej częścią. Kolejny etap to dostrzeganie w nas ludziach osobowych podmiotów. Takie pojmowanie świata było charakterystyczne dla dawniejszych epok, i bieżące zadanie polega na tym, by je odtworzyć. Pożądana odnowa praktyki ma na celu przeciwdziałanie temu, by stworzone przez nas przymusy systemowe i rzeczowe nie stały się fatum historii świata.

A zatem jedno zagrożenie ludzkiej praktyki polega na tym, że poszczególne praktyki szkodzą sobie wzajemnie i jedna z nich może zostać postawiona ponad innymi. Drugie zagrożenie związane jest ze wzmocnieniem władzy człowieka nad uprzedmiotowionymi procesami i podniesieniem tej władzy do rangi celu postępu.

3. O różnicy między praktyką a działalnością zawodową

Praktyka może być realizowana tak w kontaktach międzyludzkich, jak i w formach unaukowionych. Pierwsza forma nie wymaga specjalnego wykształcenia, a organizacja praktyki nie wymaga podziału pracy. Praktyka profesjonalna wymaga odpowiedniego wykształcenia i jest wykonywana z uwzględnieniem podziału pracy, z reguły w przeznaczonych do tego instytucjach.

Działania ludzkie ulegają unaukowieniu. Powoduje to, że dobrze jest odróżniać zwykłą praktykę od działalności zawodowej. Praktyka jest dużo starsza od działalności zawodowej. Horyzont praktyki jest dużo szerszy niż zakres działalności zawodowej, niejednokrotnie bardzo zawężony, wysoce wyspecjalizowany. Poza tym nie wszystkie formy ludzkiej działalności dają się sprofesjonalizować: właśnie one pozostają praktyką, podczas gdy formy sprofesjonalizowane to działalność zawodowa.

Praktyka związana z pracą i ekonomią nie może być w pełni sprofesjonalizowana choćby dlatego, że efektem rozwoju ekonomicznego stało się nadmierne eksploatowanie i zniszczenie środowiska. Konsekwencje tego stanu rzeczy przekraczają granice działalności zawodowej.

Gdyby etyka została całkowicie sprofesjonalizowana, wówczas co prawda istniałby zawód „wykonawcy dobrych uczynków”, ale społeczeństwo czułoby się zwolnione od niesienia pomocy. Pełna profesjonalizacja polityki prowadziłaby do odejścia społeczeństwa od myślenia w kategoriach politycznych. W rezultacie przestałoby ono respektować roszczenia zgłaszane przez praktykę polityczną. Podobna sytuacja dotyczy praktyki związanej z religią: duchowni odznaczaliby się głęboką wiarą, ale nie znajdowaliby praktycznie żadnych naśladowców. To samo dotyczy praktyki pedagogicznej: jej pełna profesjonalizacja prowadziłaby do zwolnienia społeczeństwa z wykonywania działań związanych z wychowaniem i edukacją.

Jednak postulat likwidacji zawodów pracowników najemnych, polityków, wychowawców, księży jest nierealny i iluzoryczny. Jego zrealizowanie wcale nie przyczyniłoby się do postępu, a członkowie społeczeństwa nie zaczęliby się zachowywać bardziej politycznie czy pedagogicznie. Błędem byłaby więc całkowita profesjonalizacja poszczególnych obszarów praktyki, ale też ich pełna deprofesjonalizacja. Praktyki powinny być urzeczywistniane zarówno w formie profesjonalnej, jak i w toku codziennego współżycia członków społeczeństwa.

Nauka

Brak wersji przejrzanej

Rozwój nauki opiera się na formułowaniu hipotez, które potem są weryfikowane eksperymentalnie. Przedstawiony na ilustracji model atomu Bohra był śmiałą hipotezą wyjaśniającą niezgodne z mechaniką klasyczną własności wodoru. Eksperymenty potwierdzały jego słuszność, ale wykazywały pewne braki tej hipotezy. Hipoteza nie wyjaśniała przyczyny takiego zachowania atomu co doprowadziło do sformułowania teorii tworzących podstawy fizyki kwantowej.Nauka – autonomiczna część kultury służąca wyjaśnieniu funkcjonowania świata, w którym żyje człowiek. Nauka jest budowana i rozwijana wyłącznie za pomocą tzw. metody naukowej lub metod naukowych nazywanych też paradygmatami nauki poprzez działalność badawczą prowadzącą do publikowania wyników naukowych dociekań. Proces publikowania i wielokrotne powtarzanie badań w celu weryfikacji ich wyników, prowadzi do powstania wiedzy naukowej dostępnej dla całej ludzkości. Zarówno ta wiedza jak i sposoby jej gromadzenia określane są razem jako nauka.

Owoce nauki nie są ani dobre ani złe. Tylko od etycznej postawy badaczy oraz społeczeństwa zależy sposób ich wykorzystania. Badania nad naturą materii nieożywionej prowadzą nierzadko do powstania nowych innowacji w inżynierii. Wynalazki znajdują praktyczne zastosowanie w codziennym życiu, prowadząc do podniesienia jego jakości. Postęp naukowy dotyczący badań nad życiem, prowadzi do odkrywania nowych metod leczenia. Z drugiej strony niektóre narody wykorzystują innowacje naukowe do produkcji nowych rodzajów bardziej śmiercionośnej broni.

Pojęcie „nauka” w języku polskim jest znacznie szersze niż angielskie „science”, które obejmuje jedynie nauki przyrodnicze. Osiągnięcia nauki oraz obraz świata, który ona buduje, stały się częścią kultury masowej. Ludzie z jednej strony wierzą we wszechmoc nauki, ale z drugiej strony obawiają się negatywnych skutków, zastosowania jej w złym celu. Naukowiec budzi szacunek jako osoba starająca się obiektywnie spoglądać na rzeczywistość. Jednocześnie istnieje negatywny stereotyp szalonego badacza w poplamionym fartuchu, który w mrocznym laboratorium przeprowadza podejrzane eksperymenty, aby wykraść naturze jej kolejną tajemnicę.

W opozycji do świata nauki posługującego się metodą naukową znajduje się pseudonauka (i paranauka), której przedstawiciele odrzucają takie podejście do prowadzania badań. Naukowcy wytykają im, że wykorzystują autorytet nauki, aby promować niesprawdzone hipotezy i domysły, które nie dają się zweryfikować naukowo.

Spis treści

1 Systematyka nauk

1.1 Podział tradycyjny

1.2 Dziedziny nauki w Polsce

1.3 Inne podziały

2 Problemy z paranaukami i naukami humanistycznymi

3 Pojęcie naukowości i meta-nauka

4 Kryterium naukowości

4.1 Początki paradygmatu naukowego

4.2 Pozytywizm logiczny i jego krytyka

4.3 Teoria rewolucji naukowych – paradygmaty nauki

4.4 Teoria programów badawczych

5 Metodologia i praktyka

5.1 Metodologia

5.2 Polityka i praktyka

6 Finansowanie nauki

6.1 Finansowanie badań podstawowych

6.2 Innowacyjność

6.2.1 Czynniki ekonomiczne

6.2.2 Populizm

6.3 Przykład udanej inwestycji

7 Dawne nazwy działów nauki

8 Przypisy

9 Zobacz też

10 Linki zewnętrzne

Systematyka nauk

Podział tradycyjny

Systematyka tradycyjna dzieli nauki na

nauki formalne:

nauki ścisłe, czyli matematykę, logikę, nauki strukturalne;

nauki realne

nauki przyrodnicze, czyli nauki zajmujące się światem postrzeganym przez człowieka: fizyka, chemia, biologia, nauki o Ziemi, astronomia, medycyna teoretyczna, geografia…;

nauki inżynieryjne – tu podstawowa różnica między nauką i inżynierią polega na tym, że ta druga zajmuje się tym jak budować i tym co już zbudowane.

nauki humanistyczne, zajmujące się człowiekiem i jego wytworami kulturowo-duchowymi: historia, antropologia kulturowa, filozofia, lingwistyka…;

nauki społeczno-ekonomiczne, zajmujące się społeczeństwem, jego organizacją, zmianami: antropologia, historia, geografia, politologia, stosunki międzynarodowe, ekonomia, socjologia, pedagogika, psychologia.

Dziedziny nauki w Polsce

Formalno-prawny podział na dziedziny naukowe w Polsce zawarty jest w uchwale Centralnej Komisji do Spraw Stopni i Tytułów z dnia 24 października 2005 roku w sprawie określenia dziedzin nauki i dziedzin sztuki oraz dyscyplin naukowych i artystycznych (Monitor Polski z dnia 12 grudnia 2005 roku).

Najwybitniejsi polscy naukowcy – członkowie rzeczywiści Polskiej Akademii Nauk należą w jej ramach do Wydziałów i Komitetów PAN. Tym samym także strukturę PAN można uznać za odzwierciedlenie podziału dziedzin nauki w Polsce:

nauki społeczne w skład wydziału wchodzą komitety nauk: demograficznych; ekonomicznych; etnologicznych; filozoficznych; historycznych; o kulturze; o kulturze antycznej; o literaturze; o pracy i polityce społecznej; organizacji i zarządzania; orientalistycznych; o sztuce; pedagogicznych; politycznych; pra – i protohistorycznych; prawnych; psychologicznych; teologicznych; słowianoznawstwa; socjologii; statystyki i ekonometrii oraz Badania Polonii; Historii Nauki i Techniki; Językoznawstwa.

nauki biologiczne to komitety: antropologii; biochemii i biofizyki; biologii ewolucyjnej i teoretycznej; botaniki; cytobiologii; ekologii; mikrobiologii; neurobiologii; ochrony przyrody; parazytologii; zoologii.

nauki matematyczne, fizyczne i chemiczne czyli komitety: astronomii; chemii; chemii analitycznej; fizyki; krystalografii; matematyki.

nauki techniczne, w skład wydziału wchodzą komitety naukowe: akustyki; architektury i urbanistyki; automatyki i robotyki; biocybernetyki i inżynierii biomedycznej; budowy maszyn; elektroniki i telekomunikacji; elektrotechniki; informatyki; inżynierii chemicznej i procesowej; inżynierii lądowej i wodnej; mechaniki; metalurgii; metrologii i aparatury naukowej; nauki o materiałach; termodynamiki i spalania; transportu.

nauk rolniczych, leśnych i weterynaryjnych – czyli komitety: agrofizyki; biologii rozrodu zwierząt; ekonomiki rolnictwa; fizjologii, genetyki i hodowli roślin; gleboznawstwa i chemii rolnej; melioracji i inżynierii środowiska rolniczego; nauk leśnych; nauk o żywności; nauk ogrodniczych; nauk weterynaryjnych; nauk zootechnicznych; ochrony roślin; techniki rolniczej; technologii drewna; uprawy roślin; zagospodarowania ziem górskich.

nauk medycznych – komitety: epidemiologii i zdrowia publicznego; fizyki medycznej, radiobiologii i diagnostyki obrazowej; genetyki człowieka i patologii molekularnej; immunologii i etiologii zakażeń człowieka; nauk fizjologicznych; nauk neurologicznych; nauki o żywieniu człowieka; patofizjologii klinicznej; rehabilitacji, kultury fizycznej i integracji społecznej; rozwoju człowieka; terapii i nauk o leku.

nauk o Ziemi i nauk górniczych – na wydział składają się komitety: geodezji; górnictwa; badań czwartorzędu; badań morza; geofizyki; gospodarki surowcami mineralnymi; gospodarki wodnej; inżynierii środowiska; nauk geograficznych; nauk geologicznych; nauk mineralogicznych.

Inne podziały

Często ze względu na dużą użyteczność matematyki w naukach przyrodniczych używa się dla nich wspólnego określenia nauki matematyczno-przyrodnicze. Podział ten nie jest jednak zbyt ścisły. Na przykład geografia jest jednocześnie nauką przyrodniczą i społeczną, a historia społeczną i humanistyczną

Inny podział to podział na nauki eksperymentalne, które zajmują się zjawiskami stale i niezmiennie powtarzalnymi oraz nauki punktowe, w których dominuje badanie zjawisk unikalnych, które mogą się wydarzyć tylko raz. Te pierwsze charakteryzują się możliwością stosowania technik eksperymentalnych, podczas gdy te drugie są skazane na wyjaśnianie zjawisk post factum, bez dokładnej możliwości przewidywania przyszłych zjawisk.

Do tych pierwszych zaliczają się wszystkie nauki ścisłe oraz większość przyrodniczych, oprócz geografii, astronomii i częściowo medycyny oraz biologii. Można jednak do nich zaliczyć również część nauk tradycyjnie społecznych, takich jak historia, ekonomia, politologia czy socjologia. Do tych drugich należy większość nauk humanistycznych, ale także część przyrodniczych – zwłaszcza nauki o Ziemi i astronomia, częściowo także medycyna i biologia.

W zbliżony sposób dzieli się nauki na idiograficzne, czyli takie, które opisują jakieś zjawiska i procesy, nie dążąc do ich wyjaśniania i nomotetyczne, które próbują wyjaśniać zjawiska poprzez tworzenie praw i teorii. Podział ten jednak wydaje się nieaktualny, gdyż obecnie praktycznie wszystkie nauki dążą do tworzenia praw ogólnych. Niemniej jednak do nauk idiograficznych zalicza się etnografię czy działy biologii zajmujące się systematyką.

W różnych okresach dziejów cywilizacji różne dyscypliny nauki faworyzowano jako naukę najważniejszą, największą lub najczystszą, nazywając ją „królową nauk”. Miano takie miały filozofia, później astrologia oraz kilka innych dziedzin. W czasach współczesnych godność tę piastuje (wg. niektórych) matematyka.

Problemy z paranaukami i naukami humanistycznymi

Według Thomasa Kuhna istnieją dyscypliny wiedzy, które znajdują się na etapie przedparadygmatycznym. Nie są one uznane za naukowe ze względu na brak badań i eksperymentów mogących je sfalsyfikować, gdyż nie wypracowano jeszcze odpowiednich metod, w oparciu o które można by przeprowadzić odpowiednie badania. Tego rodzaju wiedzę nazywa się jednak raczej paranauką niż nauką właściwą. Nauką właściwą jest tylko taka wiedza, która jest oparta na rzetelnej metodzie naukowej. Przyczyny, dla których wiele paranauk nie osiąga stadium prawdziwej nauki, są różne. Czasami powodem jest brak środków na badania, a czasami sama natura badanych zjawisk, dla których nikomu dotąd nie udało się zaproponować skutecznego eksperymentu falsyfikującego.

Koncepcja falsyfikowalności jako rozróżnienia nauki od nienauki napotyka na problemy w zakresie nauk humanistycznych, które nie bazują na metodologii, która może być uznana za łatwo wymierną matematycznie czy statystycznie, choć tradycyjna metoda naukowa przewiduje tutaj możliwość falsyfikacji w oparciu o zebrany materiał historyczny. Niemniej natura niektórych badań, np. w zakresie teorii poezji, powoduje, że nie mogą one być poddane jakkiejkolwiek falsyfikacji. Podobne problemy występują też przy wielu teoriach psychologicznych i socjologicznych. Wg jednych (np. pozytywistów logicznych) tego rodzaju wiedzy nie można zatem traktować jako nauki, tylko jako rodzaj próby, w miarę systematycznego opisu zjawisk, które z natury nigdy nie poddadzą się pełnemu naukowemu opracowaniu. Inni jednak próbują uznawać tego rodzaju wiedzę za naukę, ze względu na naturę jej tworzenia, która polega na badaniu, dyskutowaniu i publikowaniu otrzymanych wyników, jednak bez możliwości ich falsyfikacji, a co modniejsze ostatnio, także bez jakiejkolwiek weryfikacji merytorycznej (porównaj Sokal hoax).

Powody, dla których szereg dziedzin usiłuje określić się jako permanentnie pozostające ze swej natury poza metodologią naukową, są dwojakiej natury: psychologiczne i finansowe.

Chcąc dostąpić szacunku, jaki wzbudza ogólnie pojęcie naukowości, ich przedstawiciele postulują, aby np. analizę „co poeta miał na myśli” uznać za przejaw analizy naukowej wiersza, a nie za opinię badacza. Warto pamiętać, że olbrzymia ilość znakomicie skonstruowanych teorii, sądów, wypowiedzi i twórczości jak muzyka, poezja, biografistyka, malarstwo, religia i inne wytwory kultury, nigdy nie aspirowała do bycia dziedzinami naukowymi, a pomimo to zyskała powszechne znaczenie i uznanie. Jakości sądów „o tym co poeta miał na myśli” nie umniejsza w żaden sposób fakt ich nienaukowości. Podobnie jeśli ktoś prezentuje pewne poglądy na temat psychologii ludzkiej, jednak ich treść nie pozwala na stwierdzenie w jakich warunkach można je uznać za nieprawdziwe (np. Istnieje niematerialna dusza ludzka, jednak nie da się jej w żaden sposób zaobserwować, albo istnieje id, albo uznanie solipsyzmu), to jedyną szansą na utrzymanie szacunku naukowca jest zbudowanie lobby, które przyzna, że wiedza taka jest wiedzą naukową innego niż „falsyfikowalna nauka” rodzaju.

Pojęcie naukowości i meta-nauka

W praktyce bardzo często trudno jest ustalić, co jest nauką, a co nie jest (zobacz też: metoda naukowa). Kontrowersje wokół tego tematu trwały niemal do początków XX w. i w odniesieniu do niektórych dziedzin trwają do dziś. W wielu konkretnych przypadkach problemem jest także odpowiedź na pytania kiedy i czy dana teoria jest teorią naukową i na filozoficzne już pytanie czy dana teoria jest prawdziwa.

W ostatnich latach zaczyna się odchodzić od „humanistycznego” pojęcia naukowości na rzecz naukowości wynikającej z tzw. ograniczonej racjonalności (ang. bounded rationality) i bazującej na konsekwencjach wyników kognitywistyki i współczesnego generalizującego podejścia systemowego (ogólnej teorii systemów). W tym sensie, paradygmaty nauki/naukowości są związane z pojęciem obowiązującego konsensusu społecznego i wiedzy o wiedzy (czyli meta-wiedzy) i są ciągłym obiektem studiów[1].

W tym szerokim kontekście całokształt badań i studiów dotyczących nauki i stosujący metody uznawane za naukowe nazywa się meta-nauką lub, w języku polskim, naukoznawstwo.

Kryterium naukowości

Ze względu na dynamiczny rozwój wielu nauk klasycznych, wywodzących się z kultury anglosaskiej, podział na nauki przyrodnicze i humanistyczne jest modyfikowany przez wprowadzenie pojęcia dziedzina naukowa. Określenie to obejmuje nauki, które najczęściej nie posiadają samodzielnej metodologii lub jest ona dopiero tworzona, ale staje się już odrębnym kierunkiem nauki.

Takie odróżnienie umożliwia rozwój nowej dziedziny do czasu dostatecznego uznania jej przez środowisko akademickie oraz wskazuje na źródła, z których wyrasta. Przykładem może być psychologia, która w XIX wieku nie była jeszcze samodzielną nauką, lecz stanowiła element zainteresowań filozofów, szczególnie zajmujących się teorią poznania.

Dyskusja o tym, czym jest nauka, a czym nie jest i jakie są kryteria naukowości, ma bardzo długą historię. Warto wszakże pamiętać, że nauka, będąc najstarszym spójnym systemem kulturowym człowieka (obok muzyki), rozwija się niezależnie od teorii własnego rozwoju i według naturalnie określających ten rozwój praw, których badanie ledwie rozpoczęto.

Początki paradygmatu naukowego

Rozmaici filozofowie próbowali na różne sposoby tworzyć jasne kryteria naukowości oraz prawdziwości. Lista tego rodzaju prób jest bardzo długa. Poniżej zamieszczono tylko najważniejsze z nich.

Kartezjusz twierdził, że ściśle naukowe i pewne jest tylko to, co da się wywieść wprost z rozważań abstrakcyjno-logicznych – a więc „dobra filozofia”, matematyka i logika. Pozostałe działy wiedzy stają się tym bardziej naukowe, im bardziej korzystają z dokonań nauk abstrakcyjno-logicznych.

Empirycy brytyjscy na czele z Locke’m twierdzili przeciwnie – że naukowa jest tylko ta wiedza, która została potwierdzona eksperymentalnie, a wszystko czego się nie da dowieść w ten sposób jest tylko czystą spekulacją.

Immanuel Kant zauważył, że ani same zbiory faktów potwierdzonych eksperymentalnie, ani rozważania czysto spekulacyjne nie prowadzą zazwyczaj do rzetelnej, użytecznej wiedzy. Badając drogi postępowania najsławniejszych fizyków swoich czasów, stwierdził on, że prawdziwym źródłem wiedzy naukowej jest stosowanie odpowiedniej metody polegającej na świadomym, początkowo czysto spekulacyjnym tworzeniu spójnych logicznie hipotez, a dopiero później weryfikowanie ich drogą empiryczną. Same fakty empiryczne są tylko zbiorami takich faktów i nic z nich dla nas nie wynika. Dopiero dobra teoria jest w stanie zrobić z nich użytek. Weryfikacja empiryczna hipotez jest jednak niezbędna do odrzucania błędnych teorii i nie można się bez niej obejść, gdyż spójnych logicznie hipotez można tworzyć nieskończoną liczbę. Tak więc wiedza naukowa to dobra teoria oraz jej empiryczne potwierdzenie.

Utylitaryści amerykańscy twierdzili z kolei, że o tym, czy dana teoria jest naukowa czy nie, decyduje jej użyteczność. Jeśli stosowanie jakiejś teorii w praktyce daje pozytywne rezultaty (na przykład silnik zbudowany z uwzględnieniem drugiej zasady termodynamiki działa), to znaczy że teoria jest dobra i naukowa niezależnie od tego, jaka jest jej struktura i w jaki sposób udało się do niej dojść.

Pozytywizm logiczny i jego krytyka

Empirokrytycyści i pozytywiści logiczni uściślili poglądy Kanta tworząc pojęcie „weryfikacji teorii”. Pojęcie to było rozwijane głównie w ramach kręgów związanych z Kołem Wiedeńskim. U jego podstaw legło przekonanie, że teoria czy pogląd mogą zostać uznane za naukowe, jeśli wypowiadają jakąś prawdę o rzeczywistości, która może znaleźć potwierdzenie w doświadczeniu. Treści nienaukowe zaś, to takie, które są niezależne od doświadczenia. Tym samym utworzono program uporządkowania nauki postulujący usunięcie z niej wszystkich treści mówiących nie o doświadczeniu i rzeczywistości, lecz o np. konstrukcjach teoretycznych.

Program ten szybko został zanegowany, zaś głównym autorem ataku na te poglądy był Karl Popper. Zauważył on, że wiele teorii naukowych – zwłaszcza tych podstawowych – w ogóle nie ma szans (ze względów praktycznych) być dowiedzionych eksperymentalnie. Nie da się na przykład wykonać eksperymentu dowodzącego słuszności zasady zachowania energii w skali całego kosmosu. Podobnie fakt, że jakieś zjawisko zdarza się co dzień (np. co dzień wschodzi Słońce) nie oznacza, że mamy prawo sądzić, że zdarzy się ono w dniu następnym. Jako przykład można się tu posłużyć paradoksem pochodzącym od Russella: człowiek karmi indyka przez każdy dzień jego życia, aby w końcu w ostatnim dniu go zabić. Prace Poppera dotyczyły jedynie określenia, czy dana wypowiedź jest naukowa: wg Poppera jest nią, jeśli dopuszcza efektywną falsyfikację.

Krytyka pozytywizmu logicznego Poppera doprowadziła go do próby budowy innych kryteriów naukowości, niż proponowane w ramach Koła Wiedeńskiego. Spostrzegł on, że jakkolwiek nie da się przedstawić eksperymentu czy zjawiska, które absolutnie dowodziłoby danej teorii, to można jednak wymyślić dla tego rodzaju teorii eksperyment, który dowiódłby ich niesłuszności. Tak więc dla podważenia zasady zachowania energii wystarczy zbudować urządzenie, które będzie miało stale ujemny bilans energii, a mimo to będzie działało. Zdaniem empirokrytycystów naukowe teorie to właśnie te, które da się w ten sposób poddać falsyfikacji. Jeśli teoria jest zbudowana tak, że nie da się wymyślić żadnego eksperymentu, który próbowałby ją obalić, to nie jest naukowa. Poglądy Poppera stanowią dzisiaj jeden z elementów metodologii naukowej, zaś jako prąd filozofii nauki nazywane są popperyzmem.

Teoria rewolucji naukowych – paradygmaty nauki

Teorie Thomasa Kuhna, autora pojęcia „paradygmaty nauki”.

Teoria programów badawczych

Więcej informacji w artykule dotyczącym teorii programów badawczych.

Twórcą kolejnego podejścia do zagadnienia naukowości był uczeń Poppera Imre Lakatos. Jego celem stało się połączenie teorii rewolucji naukowych głoszonych przez Kuhna z falsyfikacjonizmem. Lakatos wyróżnił wśród teorii naukowych pewne grupy programów badawczych. Miały być one pewnego typu „twardym rdzeniem” tworzącym powszechnie uznane podstawy rozwoju nauki. W momencie pojawiania się danych sprzecznych z podstawowymi założeniami, naukowcy, zdaniem Lakatosa, budują hipotezy pomocnicze, które mają chronić uznane idee przed odrzuceniem. Lakatos sądził, że warto jest trzymać się programu badawczego, jeżeli jest on postępowy. Dopiero kiedy wokół twardego rdzenia zaczynają narastać niespójne hipotezy pomocnicze, należy go odrzucić i poszukać nowej drogi rozwoju.

Metodologia i praktyka

Metodologia

Zasady metodologii, będące sumą przemyśleń wypracowanych w ramach przedstawionych podejść, są z powodzeniem stosowane przez nauki ścisłe. Można zaryzykować twierdzenie, że tzw. twarde jądro nauki (a więc dziedziny tradycyjnie określane w świecie anglosaskim mianem science: fizyka, chemia, biologia i dziedziny pokrewne, ale także historia, czy lingwistyka) doskonale spełnia takie założenia metodologiczne. Problemy natomiast pojawiają się w naukach, które z jakiegoś powodu nie wypracowały właściwych mechanizmów oceny wiedzy, a także często, co za tym idzie, paradygmatu. Według Kuhna nauki te znajdują się w stanie przed-paradygmatycznym. Zwykle spowodowane jest to np. młodością danej dziedziny wiedzy, jak na przykład w wypadku socjologii, rozumianej jako nauka empiryczna oparta na rzetelnych badaniach statystycznych, której historia liczy ledwie niecałe dwieście lat (choć jej początki datowane są na prace Galtona).

Polityka i praktyka

Innymi powodami utrudniającymi rzetelne stosowanie metodologii nauk ścisłych może być zależność od polityki, chęć takiego przedstawiania wyników, jakby miały one ważne znaczenie, co zwykle pokrywa się z ogłaszaniem wyników jako rewolucyjnych, chęć dostępu do funduszy badawczych. Współczesne stosowanie w nauce zasad marketingu i reklamy, zapoczątkowane amerykanizacją nauki w początkach XX w. doprowadza często do mylenia popularności (w sensie: medialności) z rzetelnością czy znaczeniem wiedzy.

Finansowanie nauki

Finansowanie badań podstawowych

Ważnym aspektem rozwoju nauki, o którym koniecznie należy pamiętać, są praktyczne zastosowania. Zwykle pomijane w dyskusjach filozoficznych, są w istocie powodem, dla którego uprawia się naukę, choć niekoniecznie stanowią źródło motywacji jednostek, które to robią. Zwykle sponsorem badań, zwłaszcza podstawowych, jest państwo lub konsorcja wielu państw. Oczekiwania w stosunku do takich badań są podobne jak do inwestycji bankowej: w określonym czasie mają przynieść one zyski.

Nauka może być finansowana przez państwo lub przez podmioty prywatne. W większości krajów rozwiniętych z budżetu finansowane są badania podstawowe, czyli dotyczące dziedzin wiedzy nie dających się wprost przełożyć na praktyczne aplikacje. Popieranie nauki, która nie daje konkretnych efektów, może się wydawać nierozsądne, szczególnie dla krajów mających skromne budżety. Jednak badania podstawowe są szansą na tworzenie innowacji, które potem stają się podstawą praktycznych rozwiązań. Pozwala też na tworzenie kadr niezbędnych dla nowoczesnej gospodarki rynkowej. Społeczeństwo, które nastawia się na eksport taniej siły roboczej nie może wygrać z innym starającym się zaoferować inwestorom dobrze wyszkolonych specjalistów.

Innowacyjność

Czynniki ekonomiczne

Dla praktycznego zastosowania nauki niemniej ważna jest wolna przedsiębiorczość. Ważne jest też, aby system prawny chronił prawa naukowców do czerpania zysków ze swoich odkryć poprzez patenty czy prawo autorskie. Młody naukowiec musi mieć szansę, aby móc założyć swoją firmę i opierając się na własnych wynalazkach zbudować biznes. Przykładami takich osób są Jobs czy Gates, którzy zaczynali od prostych pomysłów, a ich idee stały się podstawą nowych gałęzi gospodarki. Jeżeli w danych społeczeństwie nie istnieją przedsiębiorcy gotowi zaryzykować własny kapitał w niepewne naukowe nowinki, to przegra ono światową konkurencję. Kiedy państwo nie przeznacza wystarczających funduszy na badania podstawowe, to przyszli odkrywcy uciekają za granicę, bądź rezygnują ze swoich pasji i znajdują sobie jakieś bardziej zwyczajne zajęcie.

Populizm

Ograniczanie funduszy na badania naukowe prowadzi do spowolnienia rozwoju danego narodu. Niestety w wielu krajach populistyczni politycy wolą przeznaczać dochody państwa na „cele społeczne” i obcinają kosztem tego wydatki na badania naukowe. Przykładem takiego państwa jest Polska. Mimo wzrostu gospodarczego od 1989 r. kolejne ekipy rządowe mimo głoszonych haseł rozwoju nauki, ograniczają finansowanie tej dziedziny. Wydatki na badania zmniejszyły się od 0,55% PKB w 1994 r. do 0,34% PKB w 2003 r.[2]. Co gorsze, większość polskich instytucji naukowych pozostała nietknięta od czasów PRL. Wiele funduszy jest marnowanych na utrzymanie naukowców, którzy pozorują prowadzenie badań. Wolny rynek dla praktycznych badań naukowych w Polsce prawie nie istnieje. Można pokazać kilka przykładów polskich wynalazków na światowym poziomie, które nie zmieniają ogólnego obrazu. Polscy naukowcy składają niezwykle małą ilość wniosków patentowych w porównaniu do innych krajów europejskich o podobnej wielkości. Brak inwestycji w naukę, może być jedną z przyczyn wysokiego bezrobocia – gorsze kadry oraz mniej nowych miejsc pracy związanych z nowinkami.

W całej Unii Europejskiej wydatki na badania naukowe są znacznie niższe niż środki przeznaczane na te cele w USA, Japonii oraz szybko się rozwijających krajach Azji. Fundusze, jakie wspólnota europejska przeznacza, na dotowanie hodowli krów oraz inne działy rolnictwa są wielokrotnie większe niż wydatki tej organizacji na badania naukowe. W efekcie obserwuje się ciągły proces migracji naukowców do USA, gdzie ich pomysły są wykorzystywane dla zwiększenia bogactwa tego kraju. Europa rozwija się znacznie wolniej niż Ameryka.

Przykład udanej inwestycji

Przeznaczając pieniądze na lot astronautów na Księżyc, USA postawiły podwaliny pod swój sukces gospodarczy i polityczny w końcu XX w. Amerykańska gospodarka otrzymała w zamian: teflon, polar, rzepy, metody obliczeniowe i silniki rakietowe. Ogromny postęp poczyniono w dziedzinie mikroelektroniki, co stało się zaczątkiem rewolucji informatycznej oraz budowy globalnych systemów łączności. Dzięki misjom Apollo możliwe stało się zbudowanie globalnej wioski, której mieszkańcy mogli oglądać pierwszy krok człowieka na srebrnym globie.

Niemniej ważnym wydarzeniem było udoskonalenie organizacji zespołów inżynierskich, wykształcenie znakomitych pilotów, inżynierów i kadry zarządzającej, sukces medialny, propagandowy i polityczny, przeniesienie zmagań politycznych z dziedzin militarnych w warstwę badawczą. Lot na Księżyc był w tym kontekście jedynie pretekstem podawanym do informacji publicznej w celu uzasadnienia wydania znacznych funduszy na inwestycję, której zasadność nie dałaby się obronić w oczach wyborców.

Dawne nazwy działów nauki

Dawne, aktualnie nie używane nazwy działów nauki:

historia naturalna

sztuki wyzwolone

Przypisy

^ Adam Maria Gadomski

^ http://www.kbn.gov.pl/analizy/20040518_kierunki.html

Zobacz też

Zobacz galerię na Wikimedia Commons:

NaukaZobacz wiadomość w serwisie Wikinews na temat naukiZobacz w Wikicytatach kolekcję cytatów

dotyczącą nauki Polska Akademia Nauk

prawda

metoda naukowa

inżynieria

impact factor

konferencja naukowa

historia nauki

prawo nauki

teoria

Linki zewnętrzne

Nauka i edukacja w katalogu Open Directory Project

Science in: Poland, 2002–06

Metoda naukowa

Jako metodę naukową rozumie się:

Całokształt sposobów badawczego docierania do prawdy i pojęciowego przedstawiania poznanej prawdy.

Sposób uzyskiwania materiału naukowego, czyli nic innego jak metoda badań naukowych.

W pierwszym znaczeniu metoda naukowa to ogół czynności i sposobów niezbędnych do rozwiązywania problemów naukowych, do tworzenia prac naukowych i do oceny wyników tych działań.

W jej obrębie mieści się metoda badań naukowych, rozumiana jako sposób zdobywania materiałów naukowych, stanowiących podstawę do opracowania teoretycznego, do rozwiązania problemu naukowego, na w końcu – do napisania pracy naukowej. Metody badań stosowane do rozwiązania określonego problemu nazywane są metodami roboczymi.

Dzięki stosowaniu metody naukowej rozwija się prawidłowo nauka i poszerza zakres naszej wiedzy.

Metoda naukowa powinna być przystosowana do przedmiotu badań. Niektóre jednak zasady pracy badawczej są uniwersalne – dla wielu przedmiotów badań i dla wielu nauk.

Spis treści

1 Etapy pracy naukowej

2 Metody badań naukowych

3 Model pracy naukowej

4 Zobacz też

5 Bibliografia

Etapy pracy naukowej

Wyróżnia się następując etapy pracy naukowej, które są jednocześnie głównymi składnikami metody naukowej:

ustalenie i uzasadnienie problemu oraz dostrzeżenie zagadnień pochodnych;

krytyka problemu w świetle dotychczasowych osiągnięć nauki (analiza literatury przedmiotu);

wyliczenie niezbędnych założeń lub twierdzeń, czasem także hipotez;

ustalenie metod roboczych, obejmujące krytykę metod dotychczasowych i wybór lub konstrukcję metod nowych;

przeprowadzenie badań naukowych: wykonanie czynności wynikających z postawionego problemu i wybranej metody roboczej;

opracowanie materiałów zebranych w czasie badań i ich synteza;

pisemne opracowanie wyników badań aż do stanu pracy gotowej do druku, po czym ujawnienie ich w publikacji naukowej;

krytyczna ocena przebiegu własnych badań i pisemnego opracowania wyników.

Trzy pierwsze etapy są często przeprowadzane razem; tworzą etap określenia problemu.

Etapy te powinny być realizowane w tej właśnie kolejności; wybór metody roboczej nie może na przykład poprzedzać ustalenia problemu. Są one zresztą dość naturalne, podobne do wszelakiego działania ludzkiego w obliczu nowej sytuacji.

Metody badań naukowych

Znane są następujące metody badań naukowych:

metoda obserwacyjna

metoda intuicyjna

krytyka źródeł

metoda ankietowa

analiza krytyczna

metoda eksperymentalna

metoda statystyczna

metoda monograficzna

metoda indywidualnych przypadków

metoda sondażu diagnostycznego

Metody te w różnych naukach znajdują różne zastosowanie, niektóre są stosowane tylko w pewnych dziedzinach naukowych, zależnie od ich specyfiki.

Model pracy naukowej

Tradycyjnie, niezależnie od rozmaitych kwestii filozoficznych i społecznych, zazwyczaj przyjmuje się, że wyniki badań naukowych przechodzą po ich publikacji proces krytyki i oceny ze strony środowiska naukowego. Nauka jest w istocie procesem społecznym, w którym jedni naukowcy stale przyglądają się sceptycznie wynikom pracy innych naukowców i akceptują je lub odrzucają w oparciu o obiektywne kryteria.

Proces ten odbywa się zazwyczaj poprzez publikowanie wyników prac w czasopismach naukowych. Zazwyczaj, zanim publikacja jest w ogóle przyjęta do druku, jest ona anonimowo recenzowana przez co najmniej dwie osoby zajmujące się tą samą dziedziną badań i może się ukazać dopiero po pozytywnej opinii recenzentów.

Publikacja naukowa może być później komentowana, krytykowana i oceniana przez innych badaczy, którzy jeśli uznają, że zawarte w niej informacje nie są wiarygodne, mogą publikować wyniki swoich badań, które stoją w opozycji do kontrowersyjnej pracy.

Duży wpływ na kierunek prac naukowych mają też konferencje naukowe, na których toczą się oficjalne i nieoficjalne dyskusje pomiędzy naukowcami. Konferencje prowadzą do zintegrowania środowiska naukowego.

Zobacz też

Falsyfikacja

Instytut Filadelfijski

Impact factor

Paranauka

Pseudonauka

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Źródło „https://pl.wikipedia.org/wiki/Metoda_naukowa”

Metoda obserwacyjna

Metoda obserwacyjna – sposób prowadzenia badań, w którym obserwacja odgrywa istotną rolę i którego stosowanie nie pociąga za sobą zmian w środowisku lokalnym (w odróżnieniu od metody eksperymentalnej). Jest celowym poszukiwaniem faktów, celową czynnością poznawania za pomocą zmysłów. Stanowiąca jej część obserwacja naukowa to proces uważnego i celowego spostrzegania; rezultatem obserwacji naukowej są spostrzeżenia naukowe. Wartość poznawcza metody obserwacyjnej polega na opisie zjawisk. Jest najstarszą metodą roboczą pracy naukowej, a jej elementy występują w wielu innych.

Należyte przygotowanie do obserwacji wymaga określenia punktów widzenia i kwestii, na które odpowiedzieć można przy pomocy obserwacji; tworzą one schemat obserwacyjny lub przewodnik obserwacyjny. Podczas obserwacji znajduje się potwierdzenie lub zaprzeczenie hipotez postawionych w przewodniku[1].

Spis treści

1 Instrument naukowy

2 Klasyfikacja metod obserwacyjnych

3 Zobacz też

4 Przypisy

5 Bibliografia

Instrument naukowy

Niektóre obserwacje dokonywane są przy pomocy instrumentów naukowych – środków technicznych do badań różnego rodzaju. Spełniają one często funkcję pomocniczą, umożliwiając dokładną obserwację. Pozwalają one nie tylko na dotarcie do pewnych zjawisk, ale również na udokumentowanie ich. Ważne więc jest poznanie specyfiki działania poszczególnych instrumentów naukowych, ich właściwy wybór i właściwe użytkowanie[2]. Jest to szczególnie istotne, jeśli chodzi o nowe obszary badań, takie jak Internet.

W badaniach Internetu instrumentem naukowym jest na przykład przeglądarka internetowa, służąca do zapoznawania się i zapisu stron internetowych. Innymi instrumentami są program do przygotowywania zrzutów ekranu, stanowiących odpowiednik zdjęć czy też program do zapisywania zawartości całych witryn internetowych.

Klasyfikacja metod obserwacyjnych

Metody obserwacji można podzielić na obserwacje bez interwencji i z interwencją:

Obserwacja bez interwencji – jej celem jest opis naturalnie występujących zachowań bez ingerowania w nie przez badacza. Jest to metoda charakteryzująca się wysoką trafnością ekologiczną. Kiedy taka obserwacja odbywa się w warunkach naturalnych, nazywamy ją obserwacją naturalną. Ta metoda jest wykorzystywana głównie w psychologii i etologii.

Obserwacje z interwencją – obejmują sytuacje, gdy badacze ingerują w spontaniczny tok zdarzeń. Wyróżnia się trzy typy tego rodzaju obserwacji:

obserwację uczestniczącą – badacz sam uczestniczy w sytuacji, która jest przedmiotem jego obserwacji;

obserwację ustrukturowaną – może być prowadzona w warunkach naturalnych lub w laboratorium, badacz wywołuje interesujące go zdarzenia;

eksperyment naturalny – badacz manipuluje wieloma zmiennymi w warunkach naturalnych i określa ich wpływ na zachowanie[3].

Zobacz też

metoda naukowa

metodologia nauk

Przypisy

^ Józef Pieter: Ogólna metodologia pracy naukowej. Wrocław: Ossolineum, 1967.

^ „… instrumenty użyte niewłaściwie są bez wartości” – stwierdza Józef Pieter, wskazując na konieczność poznania i stosowania instrukcji do posługiwania się instrumentami. Józef Pieter: Ogólna metodologia pracy naukowej. Wrocław: Ossolineum, 1967, s. 112.

^ John J Shaughnessy, Jeanne S Zechmeister, Eugene B Zechmeister, Monika Rucińska: Metody badawcze w psychologii. Gdańsk: Gdańskie Wydawnictwo Psychologiczne, 2002. ISBN 83-87957-68-2

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

John J Shaughnessy, Jeanne S Zechmeister, Eugene B Zechmeister, Monika Rucińska: Metody badawcze w psychologii. Gdańsk: Gdańskie Wydawnictwo Psychologiczne, 2002. ISBN 83-87957-68-2

Źródło „https://pl.wikipedia.org/wiki/Metoda_obserwacyjna”

Metoda intuicyjna

Brak wersji przejrzanej

Metodę intuicyjną rozumie się jako pracę naukową czysto umysłową; polega ona wtedy na rozważeniu pojęć, przypuszczeń, problemów, projektów lub innych elementów szeroko pojętej pracy naukowo-badawczej. Jest składnikiem zawsze i koniecznie obecnym w każdej metodzie badań. Staje się potrzebna do uzasadnienia problemu, wyboru metody roboczej, wskazania założeń, ustalenia hipotez. Byłaby wtedy tożsama z myśleniem.

Intuicja etymologicznie to przypatrywanie się umysłowe pewnemu przedmiotowi. Może być rozumiana jako pierwotna forma poznawania umysłowego; poznawania wstępnego, tymczasowego, niedoskonałego. Pozwala na pewne zarysowe, niedokładne zrozumienie związku pojęć lub zjawisk. W takim rozumieniu stale towarzyszy pracy naukowej. Przeważa wtedy, gdy badacz poprzestaje na domysłach i przypuszczeniach, nie siląc się na ich sprawdzenie czy udowodnienie – w pracach koncepcyjnych, szczególnie tych przedstawiających jedynie pogląd hipotetyczny na daną sprawę. Zazwyczaj pogląd ten jest oparty na osobistym doświadczeniu autora. Idąc tym tropem, metoda intuicyjna to sposób pracy naukowej, w którym argumenty do twierdzeń ogólnych są czerpane z doświadczenia osobistego.

Sprawdzianem ostatecznym dla prac naukowych opartych na tej metodzie są wyniki badań późniejszych; częściowo można już się przekonać o wartości takiej pracy według stopnia zgodności zawartych w niej twierdzeń z ustaloną już wiedzą naukową i z bieżącym stanem problematyki naukowej.

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Zobacz też

metoda naukowa

metodologia nauk

badanie naukowe

Źródło „https://pl.wikipedia.org/wiki/Metoda_intuicyjna”

Krytyka źródeł

Brak wersji przejrzanej

Krytyka źródeł polega na stwierdzeniu autentyczności i właściwego sensu śladów pewnej działalności ludzkiej, po czym – objaśnieniu ich w świetle poznanych przyczyn i warunków działalności ludzkiej. Dzięki niej dochodzi się do poznania i przebiegu minionej działalności ludzkiej i jej wytworów. Narzędziami w stwierdzaniu autentyczności śladów i celem ustalenia właściwego ich znaczenia jest szereg metod pomocniczych historii.

Jest jedną z metod badań naukowych.

Krytyka zewnętrzna i krytyka wewnętrzna

Zdobywanie wiedzy o źródle tak by stało się one źródłem gotowym do wykorzystywania informacji podzielić można na:

krytykę zewnętrzną, która polega na określeniu czasu, miejsca powstania danego źródła oraz jego autora;

krytykę wewnętrzna, która polega na analizie treści źródła oraz na zbadaniu wiarygodności autora.

Interpretacja faktów historycznych

Analiza krytyczna źródeł historycznych jest punktem wyjścia do pracy badawczej. Dalszymi etapami są interpretacja psychologiczna faktów historycznych i interpretacja socjologiczna faktów historycznych.

Interpretacja psychologiczna faktów historycznych odnosi się przede wszystkim do motywów postępowania, które mogą być stwierdzone na podstawie danych źródeł. Dąży do wyjaśnienia, dlaczego nastąpił pewien fakt historyczny, jakie mieli cele jego sprawcy. Może także służyć do wyjaśnienia wątpliwości co do źródeł, ich sprzeczności względem siebie.

Interpretacja socjologiczna faktów historycznych pozwala na powiązanie ze sobą pojedynczych faktów historycznych w czytelny obraz danej epoki lub jej części. Dzięki użyciu przyjętego przez badacza klucza ogólnych praw czy też przekonań socjologicznych, dotyczących związku zależności pomiędzy poczynaniami ludzkimi a ich przyczynami czy warunkami, z mozaiki pojedynczych faktów zaczyna układać się spójna całość.

Zarówno jedna jak i druga interpretacja jest dokonywana przede wszystkim w sposób intuicyjny, opierając się na osobistej znajomości praw życia ludzkiego przez badacza, jego osobistych przekonaniach, a także uwarunkowaniach kultury, z której pochodzi.

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Źródło „https://pl.wikipedia.org/wiki/Krytyka_źródeł”

Metoda ankietowa

Brak wersji przejrzanej

Metoda ankietowa i metoda wywiadu to metody badań naukowych polegające na stawianiu pytań, a następnie – na opracowywaniu odpowiedzi. Stanowią one trzon metodologiczny nauk społecznych. Panuje jednak wśród badaczy pewna nieufność co do odpowiedzi na pytania i do wypowiedzi, do przypominania sobie, do autobiografii i pamiętników. Często także tych metod się nadużywa albo stosuje w sposób niewłaściwy.

Metoda ankietowa odgrywa podstawową rolę w naukach społecznych, a znaczną rolę w naukach psychologicznych; wszędzie tam gdzie badaczowi zależy na wypowiedziach osób badanych i na ich interpretacji. Ankieta jest zbiorem pytań stawianych pisemnie[1], celem uzyskania odpowiedzi mających służyć do rozwiązania pewnego problemu. Odpowiedzi te są następnie opracowywane statystycznie, a wyniki objaśniane – interpretowane.

Metoda wywiadu – równie często stosowana w naukach humanistycznych – również polega na stawianiu pytań; nie ma istotnej różnicy metodologicznej między nią a metodą ankietową. W każdym przypadku pytania są stawiane dla określonych celów.

Odpowiedzi na pytania często bywają niedokładne lub kłamliwe czy zwodnicze; istnieją jednak sposoby na uzyskanie prawdy z takich wypowiedzi. W ankietach tym sposobem jest odpowiednie ułożenie pytań, na przykład zadawanie parokrotne pytań różnie sformułowanych, które jednak powinny dać tą samą odpowiedź.

Ankiety mogą być niedokładne lub wręcz nieprawdziwe z tego powodu, że pytania zostały źle ułożone: ankietowany nie rozumie ich lub jego odpowiedź leży poza przyjętym zestawem odpowiedzi (w pytaniach zamkniętych).

Wartość poznawcza w badaniach naukowych obu metod jest ogromnie zmienna, w zależności od jakości przygotowania ankiet i od praktycznego zastosowania jednej z nich.

Przypisy

^ Współcześnie pytania mogą być także pokazywane ankietowanemu na ekranie komputera; skraca to czas badania i analizy wyników, które zostają od razu zapisane w pamięci komputera, po czym automatycznie podliczone, a następnie przedstawione graficznie w postaci wykresów.

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Źródło „https://pl.wikipedia.org/wiki/Metoda_ankietowa”

Analiza krytyczna

Brak wersji przejrzanej

Metoda analizy i krytyki piśmiennictwa albo analiza krytyczna jako metoda badań naukowych jest stosowana do prac naukowych i badań innych naukowców[1]. Jest metodą stosowaną powszechnie w nauce. Powstają dzięki niej publikacje oparte nie na badaniach własnych, lecz na pracach i badaniach cudzych.

Elementy tej metody są stosowane również w innych badaniach; istotą metody naukowej jest przystosowanie nowego problemu do wiedzy dotychczasowej, a więc niezbędnym etapem jest analiza i krytyka literatury przedmiotu.

Zobacz też

metoda naukowa

Przypisy

^ Nie jest tym samym, co inna metoda badań naukowych określana jako krytyka źródeł.

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Źródło „https://pl.wikipedia.org/wiki/Analiza_krytyczna”

Metoda eksperymentalna

Metoda eksperymentalna – jedna z metod badań naukowych, charakteryzuje się innym niż w obserwacji stosunkiem osoby badanej do zjawiska badanego. Obserwując nie zmienia się badanego zjawiska. Natomiast eksperyment naukowy polega na czynnej modyfikacji zjawiska stanowiącego przedmiot badania, dążąc do poznania zależności przyczynowych pomiędzy składnikami lub warunkami przebiegu badanego zjawiska. Dzięki eksperymentom powstała większa część odkryć w fizyce, chemii, biologii i innych dziedzinach.

Metoda ta najlepiej nadaje się do badań nad zjawiskami powtarzającymi się w warunkach przynajmniej częściowo takich samych. Nadaje się więc do badań nad zjawiskami społecznymi – zjawiskami politycznymi lub gospodarczymi.

Spis treści

1 Etapy prowadzenia eksperymentu

2 Eksperymenty naturalne i laboratoryjne

3 Metoda jedynej różnicy

4 Bibliografia

Etapy prowadzenia eksperymentu

Podstawowe etapy prowadzenia eksperymentu to:

Wyodrębnienie zjawiska mającego stanowić przedmiot badania, nazywane stwarzaniem układu odosobnionego.

Ustalenie zmiennych warunków danego zjawiska i wyodrębnienie warunków mających stanowić przedmiot czynnej ingerencji prowadzącego eksperyment.

Wywołanie zmian wyodrębnionych warunków zjawiska.

Stwierdzenie rodzaju zmiany czynnie wywołanej.

Do mierzenia zmian służą instrumenty naukowe. Możliwy jest jednak eksperyment naukowy bez instrumentów, pod warunkiem możliwie dokładnego opisu warunków zmiennych.

Podobnie jak w metodzie obserwacyjnej do badań przystępuje się z przygotowanymi punktami widzenia i założenia; następuje tu także notowanie przebiegu i wyników. Obserwacja stanowi część składową eksperymentu. Wiele prac badawczych prowadzi się metodami obserwacyjnymi i eksperymentalnymi łącznie; niejako podchodząc z dwóch stron do studiów nad tą samą sprawą.

Eksperymenty naturalne i laboratoryjne

Wyróżnia się eksperymenty naturalne i eksperymenty laboratoryjne.

Eksperyment naturalny jest analizą przebiegu zjawiska, wywołanego i kontrolowanego, ale w warunkach naturalnych, między innymi w warunkach działalności ludzkiej uprawianych z innych względów niż poznawanie prawdy naukowej. Stosuje się tu na przykład grupy równoważne: grupę eksperymentalną i grupę kontrolną, by porównać zachowanie pewnej zbiorowości gdzie wprowadzony zostaje nowy czynnik i zbiorowości, gdzie zmiana taka nie nastąpiła.

Eksperyment laboratoryjny wykonywany jest w sztucznie stworzonym środowisku – tradycyjnie w ograniczonym zaopatrzonym w przyrządy miejscu jakim jest laboratorium, z zastosowaniem odpowiednich instrumentów. Istotą takich eksperymentów jest izolacja zjawisk w postaci układów odosobnionych. Jest szeroko stosowany w naukach ścisłych, technicznych, biologicznych i medycznych.

Metoda jedynej różnicy

Najważniejszym wzorcem badań eksperymentalnych jest metoda jedynej różnicy, opracowana przez Johna Stuarta Milla i podana w jego Systemie logiki.

Mówi ona, że jeśli pewne zjawisko jest jednakowe z innym zjawiskiem pod względem wszystkich cech z wyjątkiem jednej, to różnice w jego przebiegu należy przypisać właśnie tej różnicowej cesze. Na niej opierają się eksperymenty wykonywane za pomocą grup równoważnych.

Problemem może być tu znalezienie grup odpowiednio równoważnych; by zmniejszyć rozmiary błędów wnioskowania stosuje się więc grupy dostatecznie liczne.

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Źródło „https://pl.wikipedia.org/wiki/Metoda_eksperymentalna”

Statystyka

(Przekierowano z Metoda statystyczna)Brak wersji przejrzanej

Ten artykuł dotyczy nauki. Zobacz też: inne znaczenia tego słowa.

Statystyka – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska masowe.

Duża część dziedzin wiedzy zajmuje się obserwacją otaczającego nas świata lub też posługuje się eksperymentem dla potwierdzenia swoich teorii. Takie badanie przebiega zazwyczaj według schematu: zebranie dużej ilości danych, ich analiza i interpretacja. Badaczowi potrzebny jest wtedy zestaw narzędzi – sprawdzonych metod, które umożliwią mu operowanie na dużych zbiorach danych. Tworzeniem i rozwijaniem takich użytecznych narzędzi zajmuje się właśnie statystyka.

Spis treści

1 Początki statystyki

2 Statystyka i losowość

3 Metody statystyczne

4 Błędy statystyczne

5 Statystyka stosowana

6 Przypisy

7 Bibliografia

8 Zobacz też

9 Linki zewnętrzne

Początki statystyki

Swoje początki statystyka wywodzi z tradycji dokonywania spisów powszechnych, czyli zbierania informacji na temat ludności. Ślady pierwszego spisu można znaleźć w Księdze Liczb, kiedy to Mojżesz wyprowadzał lud Izraela z Egiptu. Spisy powszechne były stosunkowo systematycznie przeprowadzane na terenie starożytnego Rzymu. Z pewnością posiadanie informacji na temat stanu ludności ułatwiało rozpoznawanie trendów i odpowiednie planowanie. Do ok. połowy XIX wieku termin statystyka oznaczał podany w tabelarycznej formie zbiór danych na temat stanu państwa. Można przypuszczać, że w pewnym momencie posiadanie podstawowych danych stało się niewystarczające, szczególnie przy coraz szybciej rozwijającej się gospodarce światowej. Konieczne stało się nie tylko ulepszanie metod pozyskiwania danych, ale również ich opisu i analizy. Zbiegło się to w czasie z szybkim rozwojem metod matematycznych, szczególnie teorii prawdopodobieństwa.

Statystyka i losowość

Już pierwszy rzut oka na podstawowe metody statystyczne pozwala nam zorientować się, że nieodłącznym ich atrybutem jest losowość. Przede wszystkim wynika to z losowej natury badanych wielkości. Na przykład wzrost człowieka jest uwarunkowany ogromną ilością czynników, takich jak genetyka, dieta, środowisko, przy czym niektóre z nich również mają losową naturę. Zgodnie z zasadami mechaniki kwantowej na pewnym poziomie obserwacji wszystkie zjawiska mają charakter losowy.

Ważniejszy jest jednak fakt, że czasami nie mamy możliwości lub środków do tego, aby przebadać całą populację. Badanie wzrostu wszystkich ludzi tylko po to, aby wyznaczyć średni wzrost ludzi w Polsce z ekonomicznego punktu widzenia nie ma sensu (patrz Badanie statystyczne), lepiej byłoby przebadać losowo wybraną grupę osób, zakładając, że reszta populacji nie wyróżnia się szczególnie wysokim lub niskim wzrostem. W tym wypadku, oszczędzając na samym badaniu, świadomie skazujemy się na niepewność.

Jak widać, losowość zjawisk jest niejako wpisana w definicję metod statystycznych. Dlatego właśnie statystykę łączy bardzo ścisły związek z teorią prawdopodobieństwa, działem matematyki dzięki któremu jesteśmy w stanie poradzić sobie z niepewnością.

Metody statystyczne

Metody statystyczne stosuje się wszędzie tam, gdzie chodzi o poznanie prawidłowości w zakresie zjawisk masowych – tam, gdzie bada się problemy demograficzne, ekonomiczne, socjologiczne; choć także w innych naukach. Jest jedną z metod badań naukowych.

Działania statystyczne stosuje się do opisu zjawisk masowych. Zestawienia danych do opisu zjawisk masowych dostarczają między innymi urzędy statystyczne przez spisy powszechne. Zestawienia te mają postać tabel, z których można dowiedzieć się, w jakim procencie dane zjawisko występuje; tabel publikowanych między innymi w rocznikach statystycznych[1].

Dzięki owym danym można ustalić zmienność zjawisk masowych, tendencji ich przekształceń w czasie. Sporządza się w tym celu wykresy, ilustrujące krzywą rozwoju danego zjawiska czy też to, jaką część stanowi większej całości. Część danych dostarcza badanie metodą grup reprezentacyjnych: zbiera się dane nie od wszystkich, ale od odpowiednio wybranej grupy, określanej jako grupa reprezentacyjna.[2]

Celem analizy statystycznej jest pozyskanie jak największej wiedzy z pozyskanych danych. Aby zbiór danych był dobrą bazą do analizy statystycznej należy:

zaplanować badanie,

podsumować zbiór danych z obserwacji, podkreślając tendencje, ale rezygnując ze szczegółów,

uzgodnić, jaką wiedzę o badanym zjawisku mają dostarczyć dane.

Poszczególne punkty odpowiadają działom statystyki:

metoda reprezentacyjna

statystyka opisowa

wnioskowanie statystyczne

Istnieje również wiele metod służących analizie danych statystycznych:

analiza wariancji

analiza korelacji

analiza regresji

analiza czynnikowa

analiza dyskryminacyjna

analiza szeregów czasowych

analiza kanoniczna

Błędy statystyczne

Z metodami statystycznymi nieodłącznie związane są błędy. Ich występowanie uzależnione jest między innymi od:

wahań przypadkowych

Statystyka stosowana

Statystyka jest stosowana w wielu dziedzinach wiedzy, w niektórych z nich tak intensywnie, że doczekała się własnej terminologii i wyspecjalizowanych metod. Z czasem wytworzyły się dziedziny z pogranicza statystyki i innych nauk. Należą do nich:

Biometria

Demografia

Ekonometria

Fizyka statystyczna

Termodynamika statystyczna

Psychologia statystyczna

Socjologia statystyczna

Statystyka gospodarcza

Przypisy

^ w Polsce roczniki statystyczne wydaje GUS.

^ Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Bibliografia

Mieczysław Sobczyk, Statystyka. Podstawy teoretyczne, przykłady, zadania, Wyd. UMCS, ISBN 83-227-1153-I0.

Zobacz też

Zobacz w Wikicytatach kolekcję cytatów

o statystyceprzegląd zagadnień z zakresu statystyki

statystycy

Linki zewnętrzne

Rachunek prawdopodobieństwa i statystyka (materiały dydaktyczne MIMUW na studia informatyczne I stopnia)

Źródło „https://pl.wikipedia.org/wiki/Statystyka#Metody_statystyczne”

Metoda monograficzna

Z Wikipedii

Brak wersji przejrzanej

Metoda monograficzna – polega na wszechstronnym opisie i szczegółowej analizie pojedynczej jednostki lub niewielkiej liczby charakterystycznych jednostek badanej zbiorowości statystycznej.

Zobacz też: Metoda naukowa

Metoda monograficzna (inaczej terenowe) – ich odmiana to: różne typy eksploracji prowadzone w terenie. Opisuje w sposób całościowy problem, zbiorowość. Ten opis nie opiera się na zasadach reprezentacji. Mają charakter niestatystyczny. Wykorzystuje się techniki obserwacji powierzchownej. Wysokie ryzyko zniekształceń, bywają krytykowane jako mało naukowe.

Źródło „https://pl.wikipedia.org/wiki/Metoda_monograficzna”

Metoda indywidualnych przypadków

Brak wersji przejrzanej

Metoda indywidualnych przypadków jest sposobem badań polegającym na analizie jednostkowych losów ludzkich uwikłanych w określone sytuacje wychowawcze, lub na analizie konkretnych zjawisk natury wychowawczej poprzez pryzmat jednostkowych biografii ludzkich z nastawieniem na opracowanie diagnozy przypadku lub zjawiska w celu podjęcia działań terapeutycznych.

Szerzej rozumując, metoda indywidualnych przypadków lub metoda analizy przypadków to możliwie dokładny i wielostronny obraz nielicznych przypadków danego zjawiska, celem uzyskania wniosków empirycznych.

Metoda ta, zwana inaczej studium indywidualnych przypadków, wywodzi się z metod pracy socjalnej, rozwijanych w pedagogice opiekuńczej. Zgodnie z tradycją pedagogiki społecznej należy ograniczyć zakres metody określonej jako studium przypadków indywidualnych do badań skupionych wokół biografii ludzkich. Metoda rozpowszechniła się w latach dwudziestych poprzedniego wieku.

Według Tadeusza Pilcha

(…) metoda indywidualnych przypadków jest sposobem badań polegającym na analizie jednostkowych losów ludzkich uwikłanych w określone sytuacje wychowawcze lub na analizie konkretnych zjawisk natury wychowawczej poprzez pryzmat jednostkowych biografii ludzkich z nastawieniem na opracowanie diagnozy przypadku lub zjawiska w celu podjęcia działań terapeutycznych

Pogłębiona, wnikliwa i wielostronna analiza ma w założeniu zastąpić znaczne ilości danych mogące być podstawą do opracowania statystycznego. Może zastąpić niekiedy metodę statystyczną lub metodę eksperymentalną.

Zobacz też

studium przypadku

Bibliografia

Józef Pieter, Ogólna metodologia pracy naukowej, Ossolineum, Wrocław 1967.

Źródło „https://pl.wikipedia.org/wiki/Metoda_indywidualnych_przypadków”

Metoda sondażu diagnostycznego

Z Wikipedii

Brak wersji przejrzanej

Metoda sondażu diagnostycznego jest sposobem gromadzenia wiedzy o atrybutach strukturalnych i funkcjonalnych oraz dynamice zjawisk społecznych, opiniach i poglądach wybranych zbiorowości, nasilaniu się i kierunkach rozwoju określonych zjawisk. Chodzi tu o wszystkie zjawiska, które nie posiadają instytucjonalnej lokalizacji a wręcz odwrotnie są jakby rozproszone w całym społeczeństwie.

Metodę sondażu diagnostycznego stosuje się często w badaniach pedagogicznych, psychologicznych i socjalnych dla określenia zjawisk społeczno-wychowawczych.

W badaniach sondażowych najczęściej występujące techniki to:

wywiad,

ankieta,

analiza dokumentów.

(T. Pilch „Zasady badań pedagogicznych”)

Zobacz też: Badanie panelowe

Źródło „https://pl.wikipedia.org/wiki/Metoda_sondażu_diagnostycznego”

Badanie panelowe

Z Wikipedii

Brak wersji przejrzanej

Badania panelowe metoda badań socjologicznych polegająca na tym, że wcześniej badane osoby lub populacje zostają poddane kolejnym badaniom, pomiarom (obserwacji, badaniom ankietowym) po pewnym odstępie czasu na tej samej próbie, tym samym narzędziem. Celem badań jest uchwycenie dynamiki zmian. Zmiany te to np. zmiana preferencji wyborczych członków jakiejś zbiorowości, zmiana postaw politycznych studentów w czasie studiów. Bardzo istotne przy stosowaniu tej metody jest to, by danemu badaniu poddane były zawsze te same osoby lub zbiorowości np. kluby sportowe (jednostki badawcze).

Źródło „https://pl.wikipedia.org/wiki/Badanie_panelowe”

Falsyfikacja

Falsyfikacja (łac. falsum – fałsz) – jest to odmiana jednego z rozumowań zwanego sprawdzaniem. Termin ten rozpowszechniony został za sprawą krytycznego racjonalizmu Karla Poppera. Wnioskowanie falsyfikujące przebiega według schematu modus tollendo tollens:

przesłanki:

1. Teoria T implikuje jednostkowe zdarzenie obserwacyjne o.

2. Zdarzenie obserwacyjne o nie zachodzi.

Wniosek: Teoria T jest fałszywa (nieadekwatna).

Wnioskowaniu temu odpowiada następujący zapis w języku rachunku zdań:

przykład wnioskowania według tego schematu: Teoria geocentryczna mówi, że Słońce krąży wokół Ziemi. Wiemy, że to nieprawda, zatem teorię geocentryczną należy odrzucić.

Spis treści

1 Falsyfikacja jako odmiana sprawdzania

2 Falsyfikowalność jako podstawa rozróżnienia

3 Teoria „dobrego paradygmatu”

4 Zobacz też

5 Literatura

Falsyfikacja jako odmiana sprawdzania

Sprawdzanie – definiując za Ajdukiewiczem pojęcie – jakiegoś zdania, np. zdania „a jest b” polega na rozwiązaniu zadania, które znajduje swe słowne sformułowanie w tzw. pytaniu rozstrzygnięcia „czy a jest b?”. Rozwiązaniem jest udzielenie jednej z dwóch właściwych odpowiedzi: „a jest b” albo „a nie jest b” na podstawie stwierdzenia prawdziwości lub fałszywości pewnych następstw wyprowadzonych ze zdania „a jest b”. W związku z powyższym procedura sprawdzania nie wyznacza jednoznacznie postaci konkluzji, wyinferowanie której zakończy proces sprawdzania.

W procesie sprawdzania wyróżnić można następujące fazy: (a) postawienie pytania rozstrzygnięcia: „czy a jest b?”; (b) wyprowadzenie ze zdania „a jest b” jakichś następstw; (c) uznanie lub odrzucenie tych następstw.

Wnioskowanie (inferencja), prowadzące do uznania lub odrzucenia tych następstw i w sumie do uznania lub odrzucenia zdania sprawdzanego, przebiega jedną z dwóch dróg: (1) od odrzucenia następstw do odrzucenia racji – droga dedukcyjna; (2) od uznania następstw do uznania racji – droga dedukcyjna albo redukcyjna: (2.1.) dedukcyjna gdy następstwa są równoważne ze zdaniem sprawdzanym; (2.2.) redukcyjna gdy następstwa nie są równoważne ze zdaniem sprawdzanym.

Tak rozumiane sprawdzanie występuje w dwóch odmianach:

sprawdzanie pozytywne, które również występuje w dwóch odmianach:

weryfikacji czyli potwierdzenia całkowitego (przykład: „Wszystkie dziewczyny w wieku 17–19 lat mieszkające obecnie w Łodzi są dziewicami” – całkowite potwierdzenie tego zdania jest możliwe, o zdaniu tym powiemy, że jest weryfikowalne, a procedurę potwierdzenia go – wskazując na owe dziewice – nazwiemy weryfikacją)

konfirmacji czyli potwierdzenia częściowego (przykład: „Wszystkie orbity planet są elipsami” – całkowite potwierdzenie tego zdania nie jest możliwe, nic nie wiemy ani o orbitach planet których jeszcze nie ma, ani o orbitach planet, których już nie ma, o zdaniu tym powiemy, że jest konfirmowalne, a procedurę potwierdzenia – wskazując na orbity planet naszego układu słonecznego, czyli tylko na pewną podklasę planet – nazwiemy konfirmacją;

sprawdzanie negatywne, które też występuje w dwóch odmianach:

dyskonfirmacji, czyli osłabienia mocy danego twierdzenia (przykład: „Wszystkie dziewczyny w wieku 17–19 lat mieszkające obecnie w Łodzi są dziewicami” – o zdaniu tym powiemy, że jest dyskonfirmowalne i zostało zdyskonfirmowane wskazując, że niektóre z Łodzianek znajdujące się w tym przedziale wiekowym nie są dziewicami);

falsyfikacji, czyli wykazania fałszywości (przykład: „Wszystkie orbity planet są okręgami” – o zdaniu tym powiemy, że jest falsyfikowalne i zostało sfalsyfikowane, wskazując na orbity planet naszego układu słonecznego). (W praktyce, różnice między dyskonfirmacją a falsyfikacją są tak znikome, że, bardzo często, dla obydwu procedur stosuje się określenie falsyfikacja.)

Nieudaną próbę falsyfikacji jakiegoś twierdzenia nazywa się niekiedy (za Popperem) koroboracją. Teoria czy hipoteza została skoroborowana w chwili gdy nie udało się wykazać jej fałszywości. O takiej teorii lub hipotezie Popper mówi, że „okazała hart” ze względu na negatywny wynik eksperymentu falsyfikującego. W stosunku do następującego twierdzenia: „Wszystkie orbity planet są elipsami”, powiedzieć możemy, że zostało skoroborowane ponieważ (mimo poszukiwań – prób falsyfikacji) nie jest znana orbita planety, która nie jest elipsą.

Falsyfikowalność jako podstawa rozróżnienia

Kluczowe znaczenie dla rozróżnienia czy dana teoria jest teorią naukową, czy nie, ma obecnie kryterium falsyfikowalności. Pojęcie to zostało wprowadzone przez Karla Poppera w dziele „Logika odkrycia naukowego”. Teoria opisująca pewien aspekt rzeczywistości, zjawisko czy zdarzenie historyczne, aby móc być uznaną za naukową, musi spełniać następujące kryteria:

Musi zostać ogłoszona publicznie i musi być możliwe zapoznanie się szerokiej społeczności z treścią teorii. Nauki nie uprawia się w cieniu gabinetów i chociaż zakres upublicznienia wyników badań może obejmować różny krąg odbiorców, od specjalistów pracujących w danej dziedzinie w komunikacji prywatnej do publikacji w popularnym piśmie adresowanym do laików, to jednak nie do pomyślenia jest uznawanie za naukową wiedzy tajemnej, niedostępnej dla nikogo poza powiedzmy znającymi tajemny alfabet. Z tego powodu magia czy alchemia posiadają cechy wiedzy nienaukowej.

Teoria musi czynić przewidywania, im bardziej spektakularne tym lepiej. Im bardziej precyzyjnie teoria przewiduje wyniki doświadczeń lub konsekwencje zdarzeń, tym bardziej jest ona podatna na falsyfikację. Jako przykład negatywny można podać teorię geocentryczną Ptolemeusza. Co prawda pozwala ona czynić przewidywania, jednak na każdym etapie dopasowanie jej do danych doświadczalnych wymaga przebudowy istotnego czynnika modelu: dodania kolejnego epicyklu. Teoria heliocentryczna Kopernika, jakkolwiek nie pozwalała na przewidywanie położenia planet z dokładnością porównywalną z teorią Ptolemeusza, to jednak w zdumiewająco prosty sposób pozwalała wyjaśnić znaczną część obserwacji. Teoria względności Einsteina przewidywała zakrzywienie toru promienia światła w pobliżu dużych mas. Teoria Prusinera postulowała istnienie czynnika chorobotwórczego nie posiadającego kwasów nukleonowych, a nawet o „czysto chemicznej” naturze odpornego na działanie zabójczych dla żywych organizmów i wirusów warunków.

Przewidywania teorii muszą być zgodne z uznanymi za obowiązujące teoriami i wiedzą. Kryterium to jest nieostre, gdyż można wyobrazić sobie rewolucyjną teorię wypowiadającą przewidywania o szerokim zakresie i kompletnie negującą istniejącą wiedzę (czasem jako przykład podaje się teorię względności Einsteina, jednak ona nie tyle negowała co uogólniała istniejące teorie). Jednak im bardziej teoria jest niezgodna z istniejącą wiedzą, tym bardziej rewolucyjne muszą być jej przewidywania, aby pozostała teorią naukową. Tym samym np. kreacjonizm, stwierdzając, że świat żywy został zaprojektowany i stworzony w pojedynczym akcie tworzenia przez istotę nadnaturalną, w taki sposób, że nie pojawiają się odstępstwa obserwacyjne od przewidywań teorii ewolucji, jest teorią nienaukową.

Falsyfikowalność – jeśli hipoteza posiada powyżej wymienione cechy, to aby być teorią naukową, musi dopuszczać efektywnie falsyfikowalność, to znaczy musi w ramach tej teorii istnieć przewidywany wynik eksperymentu, wyjaśnienie zjawiska lub konsekwencji zdarzenia, który umożliwia stwierdzenie, że teoria jest błędna. Hipoteza, wedle której Słońce zbudowane jest w całości z węgla, zaś Księżyc z sera, są jak najbardziej teoriami naukowymi. Zostały one jednak obalone (dzięki analizie spektralnej lub lotom na Księżyc), czyli są to nieprawdziwe teorie naukowe. Z kolei przekonanie, że życiem człowieka sterują gwiazdy, oraz że wszelkie informacje o życiu człowieka zapisane są w jego dacie urodzenia, jest teorią nienaukową z następującego powodu: żaden astrolog nie zadał sobie trudu, aby podać przykład zdarzenia lub zjawiska, które przeczyłoby tej teorii.

Nigdzie w opisanych kryteriach naukowości teorii nie ma mowy o zgodności z doświadczeniem. Zgodność z doświadczeniem jest wymogiem, aby uznać daną teorię za prawdziwą (poprawniej: obowiązującą), natomiast nie jest konieczna dla uznania danej formy wypowiedzi za naukową: także teorie niezgodne z doświadczeniem lub niemożliwe obecnie do zweryfikowania doświadczalnego bywają przez niektórych nazywane teoriami naukowymi, badanymi i rozwijanymi jako np. alternatywne modele zjawisk poprawnie opisujące jakiś wąski aspekt rzeczywistości, hipotezy robocze, albo wręcz jako abstrakcyjne twory umożliwiające analizę sposobu rozwiązywania pewnych problemów (np. teoria flogistonu, dynamika Newtonowska, model cieczy idealnej, teoria obliczeń kwantowych itp.)

W ramach poglądów związanych z falsyfikowalnością nie ma mowy o ocenie etycznej czy wartościowaniu poglądów sklasyfikowanych jako naukowe lub nie. W myśl tej metodologii twierdzenie jakoby myślenie każdej osoby ludzkiej było dokonywane przez krasnoludka zamieszkującego w naszej głowie, jest traktowane jako hipoteza naukowa: wystarczy otworzyć czaszkę i przekonamy się, że jest ona nieprawdziwa. Natomiast pogląd jakoby każde działanie człowieka było określone przez jego podświadomość nie może być uważane za naukowe, dopóki ktoś nie poda eksperymentu umożliwiającego sfalsyfikowanie takiego przekonania.

Teoria „dobrego paradygmatu”

Imre Lakatos (węgierski filozof nauki) zauważył jednak, że gdy w naukach ścisłych (i nie tylko) komuś uda się wykonać eksperyment falsyfikujący, reszta naukowców wcale tak szybko ze starej teorii nie rezygnuje. Zauważył też, że właściwie każdą teorię da się tak zmodyfikować, aby pozornie falsyfikujący ją eksperyment jakoś jednak z nią pogodzić. Przykładowo, gdy okazało się, że rozpad jąder atomów nie spełnia zasady zachowania energii, wymyślono „ad hoc” nową cząstkę elementarną o nazwie neutrino tylko po to, aby „uratować” tę zasadę, choć stosując zasadę falsyfikowalności, należało właściwie w tym momencie odrzucić zasadę zachowania energii.

Lakatos wymyślił więc nowe pojęcie – tak zwanego programu badawczego. Program badawczy tworzy zbiór teorii podstawowych, zwanych paradygmatami. Na ich bazie buduje się teorie szczegółowe. Teorie szczegółowe są testowane i budowane według zasad zauważonych przez Kanta i Poppera, a więc są zwykle albo weryfikowalne, albo falsyfikowalne. Paradygmat jest jednak zwykle „święty” i nienaruszalny; jeśli jakieś fakty wydają się mu chwilowo zaprzeczać, szybko „dorabia” się teorię, która jakoś wyjaśnia nowe fakty w ramach starego paradygmatu. Lakatos zauważył, że z logicznego punktu widzenia zawsze można stworzyć teorię szczegółową, która „uratuje” teorię ogólną. Np. teorię geocentryczną Ptolemeusza zupełnie skutecznie ratowały przed falsyfikacją epicykle, a zasadę zachowania energii – przyjęcie istnienia hipotetycznego neutrina.

Naukowy paradygmat musi jednak spełniać szereg kryteriów: musi być spójny logicznie, jak najprostszy pojęciowo (nie powinien zawierać pojęć zbędnych – Brzytwa Ockhama) i musi być kreatywny – to znaczy na jego podstawie powinno dać się budować falsyfikowalne i weryfikowalne teorie, które dobrze tłumaczyłyby znane fakty empiryczne. Paradygmat naukowy nie jest też do końca „święty” – zawsze można próbować go „podgryzać”, jeśli zaś wymyśli się lepszy i bardziej kreatywny niż poprzedni, to stary ulega zmianie. Odróżnia to wyraźnie poprawny paradygmat nauki od np. wierzeń religijnych. W sumie wg modelu Lakatosa – nauka to poprawnie skonstruowany paradygmat oraz potwierdzone eksperymentalnie teorie szczegółowe.

Zobacz też

falsyfikacjonizm, rozumowanie, wnioskowanie, dowodzenie, wyjaśnianie

krytyczny racjonalizm, popperyzm

paradoks czarnego kruka

Literatura

Kazimierz Ajdukiewicz, Klasyfikacja rozumowań [w] Ajdukiewicz, Język i poznanie, t. 2;

Karl Popper, Logika odkrycia naukowego.

Źródło „https://pl.wikipedia.org/wiki/Falsyfikacja”

Brzytwa Ockhama

Z Wikipedii

Ten artykuł wymaga uzupełnienia źródeł podanych informacji.

Aby uczynić go weryfikowalnym, należy podać przypisy do materiałów opublikowanych w wiarygodnych źródłach.

Brzytwa Ockhama – wprowadzona przez Williama Ockhama zasada: istnień nie należy mnożyć ponad potrzebę (łac. Non sunt multiplicanda entia sine necessitate), tłumaczona także tradycyjnie jako: Bytów nie mnożyć, fikcyj nie tworzyć, tłumaczyć fakty jak najprościej. W praktyce tłumaczy się to jako: proste rozwiązanie jest najlepsze albo nie wymyślaj nowych czynników jeżeli nie istnieje taka potrzeba, a jeżeli już, to udowodnij najpierw ich istnienie.

Zasada Brzytwy Ockhama zwana jest także zasadą ekonomii myślenia. Jest to jedna z podstawowych zasad, których przestrzega się w trakcie tworzenia poprawnych teorii naukowych.

Zobacz też: Zasada unikania podwójnych wyróżnień, Reguła KISS, Reguła DRY

Zasada unikania podwójnych wyróżnień

Zasada unikania podwójnych wyróżnień – jedna z podstawowych zasad w projektowaniu typograficznym. Mówi ona, że jeżeli nie ma istotnej potrzeby, to nie należy wyróżnianego fragmentu tekstu wyróżniać więcej niż jedną metodą naraz.

Spis treści

1 Opis ogólny

2 Przykłady zastosowań

2.1 Izolowane napisy

2.2 Tytuły w tabelach

2.3 Tekst w tabelach

2.4 Wstawianie znaków z innych pism

2.5 Budowanie akapitów

2.6 Pomijanie wcięcia akapitowego w pierwszym akapicie

2.7 Zalecenia czysto pisarskie

3 Przykłady odstępstw od reguły

4 Zobacz też

Opis ogólny

Zasada ta ma swoje zastosowanie przede wszystkim do tekstów zwykłych, gdzie głównym celem tekstu jest przekazanie informacji. Natomiast jeśli główną rolą tekstu jest wywołanie u odbiorcy określonych wrażeń emocjonalnych, tak jak ma to miejsce np. w tekstach artystycznych, ostrzegawczych lub w grafice reklamowej, to oczywistą rzeczą jest, że zasada unikania podwójnych wyróżnień jest zasadą o znaczeniu drugorzędnym.

Nazwa tej zasady może być nieco myląca, gdyż jest to właściwie zasada ogólnie – unikania zwielokrotnionych wyróżnień. Jej istotą jest fakt, jeżeli jakiś specyficzny fragment tekstu jest wystarczająco rozpoznawalny ze względu na funkcję, jaką spełnia, lub na swój wygląd, to dodatkowe wyróżnianie go nie ma sensu, ponieważ są duże szanse, że stanie się to nieestetyczne lub mylące, a nadmiar formatowań może nawet utrudnić rozpoznawalność znaków tekstu.

Zaleceniem jest stosowanie możliwie najprostszych środków formatujących, które powinny być tak dobrane, aby w pełni zaspokajając potrzebę wyróżnienia, nie wnosiły przy okazji, jako skutek uboczny, jakichś dodatkowych niepotrzebnych informacji. Chroni więc ta zasada tekst przed stosowaniem nadmiaru środków stylistycznych lub wręcz artystycznych, po to, aby tekst zachował nadal swoją podstawową funkcję, jaką ma do spełnienia, czyli informacyjną. Obrazowo zasadę tę określa się sloganem, że nie należy mnożyć bytów ponad miarę, co jest nawiązaniem do ogólniejszej zasady filozoficznej zwanej Brzytwą Ockhama.

W praktyce zasada odnosi się do dwóch rodzajów sytuacji – położenia tekstu, lub wyróżniania go, przy czym należy pamiętać, że wyróżniać informację można nie tylko wizualnie (formatowaniem tekstu), ale także dodatkowymi znakami pisarskimi. I tak:

Nie wyróżnia się fragmentu tekstu, który jest tak samo sformatowany jak reszta, jeżeli jego położenie w tekście wyraźnie wskazuje na rolę, jaką spełnia. W sytuacji tej, samo położenie fragmentu tekstu wyróżnia go już w sposób wystarczający, stanowiąc swoiste wyróżnienie miejscem, więc nadanie mu dodatkowego formatowania wyróżniającego jest zbędne.

Nie wyróżnia się tekstu więcej niż jedną metodą na raz. W myśl tej zasady można wybrany fragment tekstu pogrubić, napisać pismem pochyłym (kursywa), pokolorować, podkreślić, zmienić krój pisma, użyć spacjowania, zastosować kapitaliki itp. itd., ale nie należy łączyć tych metod, a jedynie wybrać jedną z nich. Sytuacja taka ma miejsce również wówczas, gdy wybrany fragment tekstu jest wyróżniony innymi znakami pisarskimi, np. znakami cudzysłowu, ujęty w myślniki, poprzedzony dwukropkiem, czy też poprzedzony stosownym skrótem. Wtedy również nie ma potrzeby nadawania mu dodatkowych formatowań.

Stosowanie zasady unikania podwójnych wyróżnień ma oczywiście szereg wyjątków i nie należy używać jej bezwzględnie. Jest ona zaleceniem dobrej praktyki typograficznej, a wszelkie odchodzenie od niej powinno być świadome, a co ważniejsze – uzasadnione. Nie zabrania ona stosowania formatowań nakładających się na siebie, a jedynie sugeruje, aby ich nie używać w nadmiarze, co w przeważającej większości sytuacji oznacza, że zupełnie wystarczające są formatowania pojedyncze, a nierzadko w ogóle nie trzeba tych formatowań stosować – o ile możliwe jest uzyskanie wystarczającej jasności merytorycznej tekstu najprostszymi środkami, czyli położeniem lub dodatkowymi znakami. Niemniej jednak zdarzają się sytuacje, gdzie w wyróżnionym już tekście, nie tylko można, ale wręcz trzeba dodatkowo wyróżnić jakiś mniejszy fragment. Należy jednak wtedy przyjąć zasadę, że powinno być użytych tyle metod wyróżniania jednocześnie, ile funkcji na raz spełnia wyróżniany fragment.

Zasada ta nie sugeruje jednak unikania wyróżnień formatujących w ogóle. To jedynie od projektanta zależy jaką drogę wybierze spośród kilku pełnoprawnych metod wyróżniania – czy będzie to dodatkowe formatowanie tekstu, czy też użycie odpowiednich dodatkowych znaków pisarskich, czy też wreszcie specjalnie ustalony sposób rozplanowania całości tekstu. Generalnie jednak tekst powinien być jak najbardziej jednolity – zarówno z powodów estetycznych (szarość kolumny), jak i zalecenia, aby odbiorcy pozostawić możliwość wyboru tego, co on uważa za najważniejsze, a co można osiągnąć najlepiej za pomocą najprostszych środków. Należy dążyć do tego, aby odbiorca mógł skupić się na zrozumieniu tekstu bez rozpraszania swojej uwagi. A ponieważ proces czytania tekstu odbywa się na zasadzie obrazkowo-słownikowej, gdzie w miarę lektury, osoba czytająca przyzwyczaja się do wyglądu znaków i ich najczęściej powtarzających się zestawów, przez co czyta coraz szybciej, to wskazane jest, aby w pierwszej kolejności operować samym układem tekstu i znakami pisarskimi, a wyróżnianie formatowaniem zarezerwować dla elementów najważniejszych lub takich, których nie udało się wyróżnić prostszymi metodami.

Unikanie dublowania wyróżnień jest zalecane również dlatego, że ich nadmiar mógłby u świadomego i wnikliwego odbiorcy wywołać mylne wrażenie, że nadanie tekstowi dodatkowych atrybutów wizualnych lub uzupełnienie o kolejne znaki niesie z sobą dodatkową informację, której sens będzie odbiorca musiał odgadnąć.

Zasadę tę można również określić jako zalecenie stosowania „szlachetnej” prostoty, która da odbiorcy szansę wyboru tych informacji, których on sam rzeczywiście potrzebuje i szuka, bez niepotrzebnego odwracania jego uwagi na zbędne formalizmy, którymi niechcący mógłby się nawet zasugerować. Unika się wtedy sytuacji, gdzie projektant potraktuje tekst bardziej artystycznie niż potrzeba, a odbiorca będzie mylnie dopatrywał się w tych wyróżnieniach sensu merytorycznego, traktując rozszerzenie skali wyróżnień jako wskazówkę odnoszącą się do stopniowania wagi znaczeniowej w wyróżnionych fragmentach. Jest to tym bardziej istotne, że każdy z odbiorców może mieć inne pryncypia wobec tekstu, wobec czego gradacja wyróżnień może go mylnie skierować w inną stronę, niżby potrzebował. Tak więc dzięki zasadzie unikania podwójnych wyróżnień unika się ryzyka, że tekst „będzie myślał za czytelnika”. Wyróżniać należy tylko to, co jest konieczne, i tylko w niezbędnym stopniu.

Tak więc zasada ta ma fundamentalne znaczenie dla ergonomii czytania – zarówno w sferze szybkości dostępu do informacji, jak i jej zrozumienia (a przez to także zapamiętania).

Zasada ta ma jednak równie poważne uzasadnienie w sferze czysto wizualnej, estetycznej, gdzie im bardziej odmiennie wyglądają niektóre znaki użyte w tekście, tym bardziej nienaturalnym i obcym wtrętem wydają się, psując całą estetykę. Otóż w tekście zwykłym wyróżnienia mają dwojakie zadanie – odróżnić w ciągu tekstu nietypowe z różnych względów zwroty, skróty i inne sformułowania tak, aby zauważać je dopiero podczas czytania (niegdyś robiono to kursywą, a obecnie zalecane są kapitaliki), lub też wyróżnić je z szarości kolumny tak, aby odbiorca w pierwszej kolejności natrafiał na nie wzrokiem już podczas pierwszego spojrzenia na powierzchnię tekstu (co robi się zazwyczaj odmianą pogrubioną czyli tzw. boldem, lub zmianą koloru znaków). Zamiast tych metod można oczywiście posłużyć się także szeregiem innych pomysłów, ważne jednak, aby została zachowana rozpoznawalność znaków, co oznacza nie tylko, aby stosować najprostsze z metod wyróżniania, ale także – właśnie – aby ich nie łączyć. Szczególnie dotyczy to stosowania odmian. Praktycznie każda odmiana pisma inna, niż odmiana podstawowa, niesie z sobą pewne odstępstwo od najbardziej skutecznego wyglądu znaków ze względu na ich rozpoznawalność, a więc stosowanie odmian łączonych (np. kursywa z pogrubieniem) zmniejsza tę rozpoznawalność jeszcze bardziej. Nawet jeśli kroje w łączonych odmianach są zaprojektowane przez wysokiej klasy specjalistę, to jednak ich podstawowym przeznaczeniem jest tworzenie oddzielnych napisów, np. w tekstach reklamowych, czy największych tytulariach – w każdym razie im bardziej odmiany te różnią się od podstawowej, tym do większych znaków powinny być używane, gdyż w tekście podstawowym traciłyby sporo ze swojej wartości – znaki o pocienionych kreskach byłyby słabo widoczne, znaki grubsze zlewałyby się optycznie, ponadto zanikałaby większość szczegółów. Nieestetycznie wygląda również każda nieuzasadniona mieszanka różnych stylów. Szczególnie silnie zaburzenie czytelności występuje w mikrotypografii internetowej, gdzie dostępne są właściwie tylko kroje podstawowe, a wszelkie ich odmiany realizowane są metodami sztucznymi, poprzez zmianę parametrów odmiany podstawowej a nie wybór kroju w odpowiedniej odmianie. Takie sztuczne tworzenie odmian, jedynie poprzez matematyczne modyfikacje wielkości, grubości obrysu lub pochylenia znaków, daje znacznie gorszy efekt estetyczny niż znaki zaprojektowane świadomie przez projektanta, gdzie każdy element znaku jest modyfikowany indywidualnie. Składanie tekstu na stronach WWW z jednoczesnym użyciem „bolda” i „italika” daje szczególnie brzydki efekt poprzez wyjątkowo wyraźnie poszarpane krawędzie, nadmierny kontrast linii, zalewanie wewnętrznych świateł w znakach, niemal całkowitą utratę cieniowania w krojach dwuelementowych, utratę szeryfów, powstawanie przypadkowych (przez co najczęściej nieczytelnych) ligatur itd.

Zrozumienie sensu zasady unikania podwójnych wyróżnień, a następnie przyzwyczajenie się do jej stosowania, jest charakterystycznym procesem rozwoju osób pracujących zawodowo z przedstawianiem myśli ludzkich w postaci tekstu sformatowanego. Stanowi drogę od siłowego, jarmarcznego i krzykliwego uatrakcyjniania wyglądu tekstu, który nowicjuszom wydaje się bardziej „profesjonalny”, a może nawet i „artystyczny” (mimo iż w istocie rzeczy jest tylko efekciarstwem), do szlachetnej prostoty prawdziwych zawodowców, którzy starają się przy użyciu jak najmniejszej gamy dostępnych środków, poprzez ich świadome używanie, uzyskać jak największy efekt praktyczny.

Przykłady zastosowań

Izolowane napisy

Napisami takimi są wszelkie tytuły, nagłówki, opisy przy zdjęciach, podpisy autorów, żywe paginy, wskazówki lub krótkie objaśnienia na ilustracjach itp. Wszystkie one leżą w takich miejscach, że samo położenie wyróżnia je dostatecznie, gdyż najczęściej są w dużych odstępach od tekstu podstawowego, bywają zupełnie inaczej formatowane, a czasami nawet biegną w innych kierunkach. Bywa również, że gdy napisów tych jest kilka, to problemem może być nawet ustalenie ich kolejności lub hierarchii. Dlatego też, w myśl niniejszej zasady, nie ma potrzeby, aby kończyć samotne napisy kropką, nawet jeśli są pełnymi zdaniami od strony formalnej. Nie ujmuje się ich również w cudzysłów. Dobrą praktyką w takich sytuacjach jest nawet, jeśli są to napisy wielozdaniowe, aby kropkę stawiać pomiędzy zdaniami (co jest niezbędne dla zrozumienia tekstu), ale opuszczać tę kropkę na końcu napisu (bo będzie się tam za bardzo rzucać w oczy, a przecież widać, że to koniec napisu). Zalecenie o braku konieczności stawiania kropki na końcu napisu staje się szczególnie przekonujące wtedy, gdy rozpatruje się typografię napisów dużych, znacznie powiększonych w stosunku do tekstu podstawowego, ale zasadne jest ono także dla tekstów mniejszych, gdy nie są ściśle związane z układem reszty tekstu, a nawet dla tych tekstów, które choć są w ciągu składu tekstu, to spełniają w nim inną rolę niż kontynuacja sąsiednich zdań (będąc wtrąceniami lub dodatkami, jak np. podpis autora).

Jednak i dla powyższych przykładów można znaleźć wyjątki. Tak więc kropkami, wyjątkowo, wypada kończyć takie napisy, które stanowią wyraźne, zamknięte myśli, jak np. motta, sentencje i innego tego typu cytaty.

Tytuły w tabelach

Układ tabelaryczny charakteryzuje się tym, że pierwszy wiersz oraz pierwsza kolumna zawierają tytuły określające zawartość pozostałych komórek tabeli. Są więc wyróżnione miejscem i dlatego nie ma potrzeby kończyć znajdujących się tam sformułowań dwukropkiem, pisać w całości wersalikami, podkreślać, jak również nie ma potrzeby wyróżniać ich odmiennym lub dodatkowym formatowaniem. W zupełności wystarcza rozpoczynanie znajdujących się tam określeń od wielkiej litery, podczas gdy reszta komórek powinna mieć pisownię od małej litery (o ile ortografia nie wymaga inaczej).

Dodatkowym argumentem za unikaniem dodatkowych wyróżnień jest fakt, że w tabelach jest zwykle mało miejsca, a większość formatowań powiększa obszar zajęty przez tekst. Natomiast jeżeli ze względów praktycznych (duże tabele) lub estetycznych istnieje potrzeba jakiegoś wyróżnienia, to znacznie bardziej elegancko (bo w sposób nienatrętny) można to zrobić nadaniem wybranym komórkom tła (lub zmianą jego koloru, jeśli takowy nadano już całej tabeli), lub też nadaniem wybranym komórkom obrysu lub linii rozdzielającej (a jeśli takie obramowania lub linie już są, to zmianą ich grubości w wybranych obszarach).

Szczególnie jaskrawo wygląda niestosowanie się do niniejszej zasady w przypadku prostych zestawień w postaci tabel dwukolumnowych, gdzie dodatkowe wyróżnienie lewej kolumny skutkowałoby wyróżnieniem optycznym aż połowy zawartości! Rozwiązanie takie byłoby oczywiście kuriozalne, gdyż sprzeczne z samą ideą wyróżniania, która polega na miejscowym skupianiu uwagi czytelnika na rzeczach, z określonych powodów, wyjątkowych. Nie można więc niczego wyróżniać masowo, bo przestanie to coś być wyróżnieniem. Przestanie po prostu być wyjątkowe i unikalne.

Tekst w tabelach

W myśl tej zasady nie należy stosować odmiennego formatowania tekstu w tabeli niż w tekście głównym, gdyż sam fakt istnienia tabeli jest już olbrzymim wizualnie wyróżnieniem, nie ma więc najmniejszego sensu, aby to jeszcze dodatkowo uwypuklać kolejną metodą. W dodatku zawartość tabeli jest zwykłą kontynuacją tekstu głównego, różniącą się jedynie sposobem zorganizowania tekstu (np. w postaci innej niż pełne zdania, lub pełnymi zdaniami, ale powiązanymi z sobą w pewien szczególny sposób zależności), więc nie należy utrudniać czytelnikowi procesu czytania tekstu w tabeli, skoro zdążył się już do wyglądu jego znaków przyzwyczaić i dostosować podczas lektury tekstu głównego.

Przede wszystkim więc nie należy stosować w tabelach odmiennego kroju pisma lub odmian pisma mocno zniekształcających charakterystyczne cechy wyglądu znaków (kursywa, pogrubienie). Natomiast czasami rzeczywiście trzeba tekst w tabelach zmodyfikować, aby stał się bardziej czytelny, ale należy to zrobić metodami mniej „inwazyjnymi” – czyli np. za pomocą zmiany stopnia pisma lub odmian o tylko innej szerokości znaku (wąska, szeroka).

Zalecenie to można również uzasadnić merytorycznie – każde formatowanie niesie w sobie jakąś informację, a stosowanie kursywy odnosi się często do cytatów. Tak więc, jeśli np. zawartość tabeli odnosi się do efektów ankiety, to naturalną rzeczą będzie w takiej tabeli podanie pytań z ankiety w wiernej, oryginalnej pisowni, właśnie za pomocą kursywy. Jeśli jednak tabela zajmuje się jedynie logicznym uporządkowaniem tekstu, to użycie tej kursywy mogłoby być mylące, bo czytelnik mógłby dociekać, dlaczego ktoś chce w sposób specjalny zwrócić jego uwagę akurat na ten, a nie inny fragment.

Tabele mogą się jednak czasami charakteryzować rozbudowaną strukturą, odchodząc od czystego układu wierszowo-kolumnowego, np. zwiększając w pewnych swoich fragmentach ilość kolumn lub wierszy, lub posiadając dodatkowe nagłówki gdzieś w swoim wnętrzu, a spotykane są nawet tabele jednokolumnowe, gdzie co pewien czas (co któryś wiersz) pojawia się nowa sekcja. We wszystkich takich sytuacjach jest oczywiście zrozumiałe zwiększanie różnic w wyglądzie tekstu. Zawsze jednak powinno odbywać się to z umiarem, a w przypadkach wątpliwych lepiej przyjąć zasadę „słabiej niż mocniej”, pamiętając o sile stopniowania wyróżnień (i kryjącym się w tym stopniowaniu niebezpieczeństwie nadinterpretacji przez odbiorcę).

Wstawianie znaków z innych pism

Cyrylica w drugim wierszu niepotrzebnie dodatkowo wyróżniona pochyleniem, co spowoduje że np. 2. i 3. znaki będą przy małym stopniu pisma niemal nieodróżnialne dla osoby nie posługującej się tym pismem na co dzieńZnaki pisarskie z innych pism wtrącane do tekstu (np. cyrylica lub greka w tekście łacińskim) mają już same w sobie na tyle odmienny wygląd, że od razu zwracają na siebie uwagę, a dodatkowo czytelnik i tak zatrzymuje na nich swój wzrok trochę dłużej, aby je rozpoznać. Nie ma więc potrzeby, aby je dodatkowo wyróżniać. Szczególnie istotne jest unikanie dodatkowego formatowania tych znaków, gdyż można bardzo mocno pogorszyć ich rozpoznawalność. Ma to znaczenie zarówno w tekście głównym, czyli tam, gdzie znaki są słabo widoczne, bo złożone niewielkim stopniem, jak i we wzorach (np. matematycznych), czyli tam, gdzie czytelnik i tak musi skupić uwagę na całości układu znaków (więc nie trzeba mu na to dodatkowo zwracać uwagi).

Budowanie akapitów

Akapity można budować na wiele sposobów, z których dwa najpopularniejsze to wcięcie akapitowe lub dodatkowy odstęp pomiędzy akapitami (najczęściej wysokości jednego wiersza). Jednym z najczęściej popełnianych błędów przez osoby początkujące jest właśnie stosowanie obu tych metod jednocześnie, co jest zupełnie zbyteczne, gdyż każda z tych metod z osobna działa wystarczająco wyraźnie w normalnym, typowym składzie.

W dodatku traciłoby się takim postępowaniem możliwość podziału tekstu na logiczne jednostki większe od akapitu, ale np. mniejsze od rozdziału, a często, zwłaszcza w literaturze beletrystycznej, stosowany jest taki zabieg dodatkowego podziału tekstu co kilka akapitów na większe jednostki treści właśnie dodatkowymi pustymi wierszami (oczywiście o ile jest to uzasadnione treścią).

Pomijanie wcięcia akapitowego w pierwszym akapicie

Ciekawym pomysłem, zaczerpniętym z typografii anglosaskiej, który zaczyna jednak zdobywać uznanie także w Polsce, jest zalecenie, aby nie stosować tego wcięcia w akapitach bezpośrednio pod wszelkimi tytułami (głównymi, rozdziałów, podrozdziałów itd.), gdyż widać, że jest to początek akapitu. Jest to więc wyróżnienie przez położenie. Oczywiście przy akapicie na początku łamu, będącym kontynuacją tekstu z poprzedniej strony lub poprzedniego łamu (w układzie wielołamowym) zasada ta nie ma zastosowania.

Okazuje się przy okazji, że celowe unikanie nadmiaru wyróżnień może bardzo pomagać w rozwiązywaniu szeregu innych problemów. W przypadku unikania wcięć pod tytułami można w ten sposób umożliwić rzeczywiste ułożenie w osi wyśrodkowanego tytułu z wyjustowanym akapitem, a w tym także z jego pierwszym (nie wciętym) wierszem, podczas gdy przy pierwszym wierszu wciętym właściwie nie wiadomo, do czego wyrównywać tytuł, bo albo tytuł będzie nierówno (więc brzydko) względem pierwszego wiersza, albo nierówno (więc równie brzydko) względem osi łamu. Z kolei przy tytułach numerowanych, szczególnie gdy jest to numeracja wielorzędowa (np. w postaci: 2.1.3.15), gdzie zazwyczaj takie tytuły wyrównuje się do lewego marginesu, brak wcięcia znacznie poprawi wygląd całości poprzez uniknięcie wizualnych „zadziorów” (szczególnie zważywszy, że ta numeracja daje zbitki cyfr i kropek o zróżnicowanej długości, a i tak długość ta byłaby najczęściej większa od typowego, dość krótkiego wcięcia).

Ponadto wcięcie na początku bloku akapitów narusza symetrię łamu oraz pogarsza kształt całego bloku tekstu, który pomimo wszystkich swoich ograniczeń powinien dążyć do układu pełnych prostokątów, aby zaspokajać poczucie jednolitej szarości kolumny.

Zalecenia czysto pisarskie

Najczęściej spotykanym tutaj błędem nadużywania znaków pisarskich (bez udziału formatowania) jest nadmierne wyróżnianie sformułowań mówiących o innym znaczeniu danego słowa lub wyrażenia niż znaczenie podstawowe. Szczególnie dotyczy to ujmowania tekstu w znaki cudzysłowu. W myśl tej zasady można dane sformułowanie ująć w cudzysłów lub też zrobić to inaczej, np. poprzedzić skrótem „tzw”. – nigdy jednak nie stosuje się obu metod na raz, gdyż do przekazania informacji o odmienności znaczeniowej w zupełności wystarcza użycie jednej z metod. Dodatkowo czytelnik mógłby zostać zdezorientowany, że sugerowana jest jeszcze inna interpretacja niż ta najczęściej stosowana wobec odmienności użytego sformułowania. Np. użycie podwójnego wyróżnienia w postaci: tzw. „okrągły stół” mogłoby sugerować, że nie chodzi o mebel (brak wyróżnienia), ani o to najbardziej znane wydarzenie związane ze stołem w historii Polski, z 1989 r. (pojedyncze wyróżnienie), tylko o jeszcze inne wydarzenie, któremu przez analogię nadano taką samą nazwę, a podwójnym wyróżnieniem zasygnalizowano (aby się nie myliło), że chodzi o coś jeszcze innego.

Zresztą w myśl tej zasady nie należy również stosować jednocześnie kursywy (lub innego formatowania) i cudzysłowu, tylko przyjąć w skali całości publikacji jedno z tych wyróżnień, co przy okazji pozwoli wykorzystać poniechany sposób wyróżniania do użycia w wyróżnianiu sformułowań z innej kategorii – np. cudzysłów dla nazwy czasopisma (co jest bardzo często praktykowane), a kursywa dla nazwy artykułu w tym czasopiśmie.

Nadmiaru znaków należy unikać także w wielu innych sytuacjach, np. jeśli lista nie jest wyraźnym fragmentem zdania, a składa się z krótkich pozycji i jeszcze do tego jest dość długa, to przecinki na końcu każdego krótkiego wiersza psują całą estetykę i utrudniają czytanie, a do zrozumienia tekstu nie są potrzebne (bo widać, że to jest lista). Można więc je odrzucić jako zbędny formalizm. Wszystko jednak zależy od tego, jaki jest charakter merytoryczny całości publikacji, oraz jaka jest kompozycja graficzna. Jeśli np. jest to akt normatywny lub inny oficjalny dokument, to przecinki te będą niestety konieczne z różnych powodów, np. Proceduralnych lub prawnych. Jeśli jednak jest to publikacja o charakterze innym, mniej oficjalnym, a szczególnie, jeśli ma bogatą szatę graficzną, to wtedy lepiej każdą linijkę wyróżnić w inny sposób, np. jakimś prostym elementem graficznym na początku, lub nawet całą listę wyróżnić samym położeniem (np. tabulacją), a wtedy przecinki nie będą potrzebne, a nawet może się okazać, że pozycjom listy nie będzie trzeba w ogóle nic przydawać, pozostawiając sam tekst (robi się tak czasami np. tabele bez ramek).

Przykłady odstępstw od reguły

Jeżeli przyjęto w tytulariach tekstu głównego lub tabeli pisownię pewnych terminów pismem pogrubionym, a jednocześnie występują tam te same terminy także w tłumaczeniu na inny język, to aby zachować konwencję stylistyczną, można dopuścić przy drugim terminie formatowanie łączone metodą pogrubienie + kursywa, gdyż często obce wyrazy składa się tradycyjnie kursywą. Należy jednak starać się w tym wypadku, aby wszystkie te napisy były pisane powiększonym stopniem pisma. Ma to miejsce np. przy podawaniu taksonów w biologii po polsku i łacinie, albo przy wymienianiu nazw geograficznych po polsku i w pisowni oryginalnej. Podobnie ma się zresztą sytuacja przy pisowni tytułów utworów (np. literackich, muzycznych, filmowych itp.), które często podaje się wyłącznie kursywą. Zawsze jednak warto we wszelkich tego typu sytuacjach rozważyć możliwość innego sposobu układu typograficznego.

Natomiast koronnym przykładem uzasadnionego używania dużej ilości różnorodnych wyróżnień (miejscem, znakami lub formatowaniem), w tym często także łączonych, są słowniki językowe, gdzie praktycznie co chwila, wielokrotnie w skali jednego zdania, kolejne słowa lub grupy słów spełniają coraz to inną rolę.

Zobacz też

czcionka, font, krój pisma, odmiana pisma, stopień pisma

Przegląd zagadnień z zakresu DTP

Źródło: „https://pl.wikipedia.org/wiki/Zasada_unikania_podwójnych_wyróżnień”

KISS (reguła)

Reguła KISS (ang. Keep It Simple, Stupid, czyli nie komplikuj, głupku) jest często wspominana przy dyskusji architektury lub szczegółów budowy projektów. Jej istotą jest dążenie do utrzymania eleganckiej i przejrzystej struktury, bez dodawania niepotrzebnych elementów.

Reguła KISS jest często używana przez twórców programów komputerowych. W środowisku tym doczekała się polskiego odpowiednika: BUZI (Bez Udziwnień Zapisu, Idioto), atrakcyjnego przez to, że nie tylko oddaje sens akronimu, ale i sam kojarzy się z angielskim pierwowzorem (kiss – całować; pocałunek, buziak).

Nie jest to jednak zwrot o typowo informatycznym charakterze, spotyka się go bowiem także w kręgach biznesowych. Również popularne w grupach 12 Kroków.

Wersje

Z powodu zawarcia w nazwie reguły określenia o lekceważącym charakterze (lub celowo obraźliwego – zależnie od punktu widzenia), pełne rozwinięcie skrótu jest czasem pomijane lub zastępowane innymi. Spotyka się więc „Keep it Simple and Stupid” (to ma być proste i głupie), „Keep It Small and Simple” (to ma być małe i proste) lub „Keep It Short and Simple” (to ma być krótkie i proste). To ostatnie rozwinięcie jest często maksymą dla prezentacji marketingowych.

Etymologia

Pochodzenie reguły KISS nie jest do końca znane. Historycznie rzecz ujmując, jej użycie poprzedza lata 80. Prawdopodobnie wywodzi się ze środowiska hackerów z MIT, wiąże się z prostotą architektury systemów Unix, BSD oraz podobnych rozwiązań w tym duchu. Inną popularną hipotezą jest to że akronim ten powstał podczas trwania programu Apollo.

Zobacz też

Worse is Better

DRY (reguła)

Brzytwa Ockhama

Źródło „https://pl.wikipedia.org/wiki/KISS_(reguła)”

Worse is Better

Brak wersji przejrzanej

Worse is Better (ang. gorsze jest lepsze) to teoria, według której w programowaniu „right now” (właśnie teraz) jest znacznie ważniejsze od „right way” (właściwy sposób).

Teoria ta jedynie kodyfikuje zasady stosowane od dawna w praktyce. Tradycyjne sposoby tworzenia systemów informatycznych w zderzeniu z rzeczywistością okazały się nieraz porażką, z kolei bardzo często systemy tworzone całkowicie „wbrew zasadom” kończą się pełnym sukcesem, przerastającym czasem najśmielsze oczekiwania.

Spis treści

1 Zasady Worse is Better

2 Przykłady sukcesu Worse is Better

3 Ograniczenia zasady

4 Zobacz też

5 Linki zewnętrzne

Zasady Worse is Better

Prostota implementacji jest ważniejsza niż prostota interfejsu. Nie jest ważne, że korzystanie z systemu będzie trochę trudniejsze, jeśli znacznie uprości to system. Dzięki temu system powstanie szybciej, będzie zawierał mniej błędów i będzie łatwiejszy do rozszerzenia w przyszłości.

Można poświęcić stuprocentową poprawność na rzecz prostoty. Jeśli coś działa prawie zawsze, a zawodzi jedynie w przypadkach, które nie są specjalnie ważne, nie warto komplikować kodu wyjątkami.

Spójność jest mało istotna. W praktyce trudność ze stworzeniem, a przede wszystkim z zachowaniem spójności systemu, przewyższa znacznie korzyści, jakie odnosi się ze spójności.

Kompletność nie jest specjalnie ważna, jeśli miałaby uderzyć w prostotę. System powinien skupić się na typowych przypadkach.

Otwartość systemu uzyskuje się, po pierwsze, poprzez proste, tekstowe zbiory konfiguracyjne. Pozwalają na szybką reakcję w wypadkach nietypowych, a nie wymagają kawałków programu typu setup.

Przykłady sukcesu Worse is Better

Unix to archetyp Worse is Better – tak prosty w implementacji jak tylko się da. Posiadał początkowo interfejs stworzony wyłącznie z myślą o łatwym i wydajnym implementowaniu. Zawiera wiele wyjątków od zasady pełnej poprawności (np. EINTR) i spójności. Wiele różnych grup programistów stworzyło przez lata setki dodatków. System zajmował się wyłącznie typowymi przypadkami zostawiając wszystko co mniej typowe programiście i użytkownikowi. Inne systemy operacyjne tamtych czasów – VMS, ITS, różne lispowe systemy operacyjne – próbowały robić jak najwięcej wewnątrz systemu operacyjnego i przedstawić programiście i użytkownikowi interfejs jak najwyższego poziomu. Są one dziś praktycznie zapomniane, a wszystkie nowe systemy (z DOS-em i Microsoft Windows włącznie) są w mniejszym lub większym stopniu wzorowane na Uniksie.

Języki programowania – języki, które zmieniały się zależnie od aktualnych potrzeb, takie jak C, C++ czy Perl, osiągnęły nieporównywalnie większą popularność i nieporównywalnie większe sukcesy w praktyce niż języki zaprojektowane takie jak Ada.

Sukces Wikipedii przy porażce Nupedii. Pisane wyłącznie przez specjalistów artykuły Nupedii były przynajmniej dobre, dla odmiany na Wikipedii pisać może każdy chętny niezależnie od tego, czy coś wie i czy ma do tego kompetencje. Powoduje to nie najlepszą jakość wielu pierwszych wersji artykułów. Jednak liczba bardzo dobrych artykułów Wikipedii jest o parę rzędów większa niż liczba bardzo dobrych artykułów Nupedii.

DOS na komputerach PC wygrał z Amigami, Atari ST itp., które miały lepsze procesory i bardziej dopracowane systemy operacyjne. Miały też lepsze systemy plików i obsługę urządzeń. Podobnie MS Windows na PC ma ogromną przewagę ilościową nad Mac OS-em na procesorach Motoroli, który jest uważany za znacznie bardziej elegancki i dopracowany.

Ograniczenia zasady

Zasada Worse is Better stosowana mechanicznie lub jako uzasadnienie dla braku analizy własnej pracy (projektu) może jednak doprowadzić do fiaska. Istnieją dziedziny, także w informatyce, zwłaszcza przemysłowej czy medycznej, gdzie pomimo swojej pozornej atrakcyjności biznesowej stosowanie zasady Worse is Better jest kompletną pomyłką.

Jak zwykle można przyjąć, że stosowanie tej zasady zależy w istotny sposób od właściwego zdefiniowania celów i warunków w jakich powstają systemy.

Zobacz też

reguła KISS

reguła DRY

Brzytwa Ockhama

Linki zewnętrzne

Można przyjąć, że ta teoria (zasada) jest lokalną mutacją prawa Greshama-Kopernika (podanego w pracy „Monetae cudendae ratio” z 1526 r.). W pewnym związku z informatyką pisali o tym w dwutygodniku Teleinfo Ewa Mizerska (Informatyczne prawo Kopernika) oraz Bogusław Jackowski (Prawo do Kopernika).

Źródło „https://pl.wikipedia.org/wiki/Worse_is_Better”

DRY

DRY (ang. Don’t Repeat Yourself) – reguła stosowana w programowaniu, zalecająca by separować często powtarzający się kod źródłowy i jedynie odwoływać się do niego.

Spis treści

1 Zalety stosowania

2 Sposoby realizowania

3 Przykłady zastosowania

4 Zobacz też

Zalety stosowania

Główną zaletą stosowania reguły DRY jest uniknięcie problemów wynikających z błędów popełnionych w powtarzającym się fragmencie kodu. Wówczas, DRY przynosi znaczą oszczędność czasu, bo zmianę trzeba wprowadzić tylko w jednym miejscu i nerwów związanych z pominięciem któregoś z wystąpień wadliwego kodu. Podobnie zachodzi w przypadku konieczności udoskonalenia takiego powielonego kodu.

Jednocześnie stosowanie DRY wymusza lepsze specyfikowanie funkcjonalności i projektowanie interfejsów w kierunku ich uniwersalności. Na przykład funkcje: wypisująca dane do pliku i wypisująca dane na ekran mają z reguły niemal identyczną postać. Zaprojektowanie wspólnego interfejsu wypisywania danych dla ekranu i pliku (deskryptor konsoli, którego można użyć razem z write() w POSIX, czy strumienie w C++) pozwalają na całkowite uwspólnienie kodu.

Sposoby realizowania

W różnych językach programowania istnieje wiele mechanizmów pomagających realizowanie reguły DRY. Najbardziej powszechnym mechanizmem są funkcje, występujące w praktycznie każdym języku programowania, pozwalające na wydzielenie powtarzającego się kodu i wywoływanie go z dowolnego miejsca w programie.

Podobny efekt można uzyskać poprzez automatycznego wklejenia części kodu przed kompilacją, za pomocą makr, w przypadku języka C, lub szablonów, oferowanych przez nowocześniejsze języki programowania. Takie rozwiązanie jest mniej oszczędne, jeśli chodzi o oszczędność pamięci, lecz niekiedy preferowane, na przykład ze względu na przepełnienie stosu. Tego typu rozwiązania są stosowane też do tworzenia wzorców do tworzenia struktur i klas, w zależności od parametrów, na przykład do tworzenia typu dla listy, w zależności od typu danych, które ma przechowywać.

Z podobnych powodów, zaleca się używać stałych. Ponadto stałe podnoszą czytelność kodu, poprzez zastąpienie, często niewiele mówiących, liczb na czytelniejsze nazwy stałych. Analogicznie zdarza się postępować z typami danych, na przykład zastępując typ własnym, na wypadek gdyby zaszła potrzeba zmiany na typ mogący przyjmować większe bądź mniejsze wartości.

Kolejnym mechanizmem, typowym dla DRY, są moduły, pozwalające nie tylko podzielić kod na części zajmujące się pojedynczymi funkcjonalnościami, ale też ułatwić przeniesienie części kodu z jednego programu do drugiego. Szczególnym przypadkiem, w którym moduł jest oddzielony od programu są biblioteki.

Nowocześniejszym sposobem unikania powtórzeń jest typowy dla programowania obiektowego polimorfizm. Pozwala on na współdzielenie kodu przez różnie klasy.

Przykłady zastosowania

Zastosowanie reguły DRY można zauważyć w takich projektach jak Ruby on Rails czy Django. Ponadto jest powszechnie uznawana przy tworzeniu skryptów PHP, gdyż wykonywane po stronie serwera.

Zobacz też

Worse is Better

reguła KISS

Brzytwa Ockhama

Źródło „https://pl.wikipedia.org/wiki/DRY”

paranauka

Z Wikipedii

Brak wersji przejrzanej

Treść tego hasła może nie być zgodna z zasadami neutralnego punktu widzenia.

Zajrzyj na stronę dyskusji i pomóż go poprawić.

Paranauka (od: para – : ledwo, niby, prawie, z gr. pará – przy, obok, poza (czymś) – paranauka to „prawie - nauka”, „niby-nauka”, „obok-nauka”, „poza-nauka”.

W odróżnieniu od nauki nie posiada jednego wypracowanego modelu, który jest uznawany i akceptowany przez większość oraz wykładany w szkołach czy na uczelniach. Paranauki to niejako „wstęp” czy „przedsionek” do nauki, gromadzą bowiem hipotezy i teorie stojące poza oficjalnym nurtem naukowym. Mieszczą się niejako pomiędzy fantastyką naukową, a czystą nauką, przy czym bliżej mają jednak do nauki.

Paranauki skupiają się głównie na próbach opisu tzw. zjawisk paranormalnych, które ze względu na to, że są zjawiskami rzadkimi i/lub mogą stanowić zaprzeczenie jakiejś obowiązującej teorii naukowej uważane są najczęściej za błędy, nadinterpretacje, mylne obserwacje, naciągane wnioski, lub celowe, bądź niezamierzone oszustwa.

Dziedziny zaliczane do paranauki

Do paranauki zalicza się zwykle wiedzę, która ma szansę być włączona do nauki, ale jeszcze nie jest ze względu na brak rzetelnych badań przeprowadzonych z użyciem pełnego aparatu metody naukowej (tym różni się ona od pseudonauki). Są to na przykład:

tradycyjna medycyna chińska,

homeopatia

lub parapsychologia zajmująca się badaniem rzadkich zjawisk dotyczących ludzi, np. telepatia czy telekineza (zob. paranauki i pseudonauki). Przy czym telepatia i telekineza nie są paranaukami lecz stanowią zjawiska będące obiektem „badań” w paranauce (należą do dziedziny jaką jest psionika).

Do paranauk zalicza się też zwykle dawne badania przednaukowe takie jak np. alchemia czy astrologia. Warto jednak zauważyć, że współczesne próby uprawiania dawnych paranauk są już zdecydowanie uznawane za naukę kontrowersyjną.

Źródło: „https://pl.wikipedia.org/wiki/Paranauka”

Pseudonauka

Pseudonauka, kryptonauka – rodzaj nieakceptowanego powszechnie przez środowisko naukowe zbioru twierdzeń, które aspirują do miana nauki, lecz nie spełniają jej podstawowych reguł, a w szczególności nie są oparte o metodę naukową i nie są intersubiektywnie weryfikowalne (nie mają oparcia w sprawdzalnych i możliwych do powtórzenia doświadczeniach).

Pseudonauka posługuje się językiem naukowym, jednak uzasadniane nim teorie i twierdzenia naukowe nie znajdują potwierdzenia w badaniach naukowych. W skrajnej sytuacji stoją nawet w sprzeczności z teoriami sprawdzonymi naukowo.

Możliwość oddzielenia wiedzy naukowej od pseudonaukowej na bazie zasad metody naukowej jest sama w sobie sprawą kontrowersyjną, dyskutowaną ciągle przez filozofię nauki. Ze względu na to, że termin „pseudonauka” ma silnie negatywny wydźwięk, osoby, które są oceniane w ten sposób niemal zawsze odrzucają klasyfikację oraz zasady, według których jest ona prowadzona.

Z pseudonauką często mylona jest sztuka lub niektóre rozwijające się dziedziny humanistyczne, religijne, duchowe. Stosowanie do nich metod weryfikacji matematycznej lub statystycznej będących metodami nauk ścisłych wywołuje gorące konflikty, których podłożem jest ocena tych dziedzin przez pryzmat obcej im metodologii lub próba narzucania im poglądów bazujących na filozofii scjentyzmu.

Spis treści

1 Pseudonauka a paranauka i protonauka

1.1 Dodatkowe formy identyfikacji pseudonauki

2 Pseudonauka i mass media

3 Paranauki, pseudonauki

4 Bibliografia

5 Przypisy

6 Zobacz też

7 Linki zewnętrzne

Pseudonauka a paranauka i protonauka

Oprócz pseudonauki wyróżnia się:

paranaukę – tj. naukę, która nie została dotąd zaakceptowana przez środowisko naukowe, ze względu na brak przeprowadzonych rzetelnych badań dowodzących istnienia postulowanych zjawisk. Do paranauki zalicza się też historyczną wiedzę przednaukową, której pewne elementy wpłynęły na rozwój współczesnej nauki, ale która obecnie została już odrzucona (np. teoria flogistonu).

Protonaukę – czyli nowe dziedziny nauki, których wyniki nie są jeszcze powszechnie akceptowane z powodu braku wystarczających dowodów eksperymentalnych, ale których dotychczasowe wyniki badań oparte są o znaną lub tworzoną i spójną metodykę naukową.

Protonauki i paranauki – w odróżnieniu od pseudonauk – można w oczach nauki uznać za mniej lub gorzej uzasadnione hipotezy lub zbiory teorii, których jak dotąd nie udało się dowieść, ale które rokują szanse. Czasami protonauka głosi hipotezy, które stoją w sprzeczności z dotychczas przyjętymi teoriami naukowymi, lecz nie domaga się ich uznania bez dowodu eksperymentalnego a wręcz przeciwnie – koncentruje się na poszukiwaniu tego rodzaju dowodów i sama siebie traktuje według zasad sceptycyzmu naukowego.

Pseudonauka domaga się od środowiska naukowego uznania swoich teorii, całkowicie odrzucając wszelkie próby ich naukowego zweryfikowania, a gdy tego rodzaju weryfikacja przebiegnie negatywnie, zarzuca błędy metodologicznie lub stawia takie warunki eksperymentowi, że staje się on niewykonalny. Pseudonauka nie reaguje zazwyczaj na apele poddania się weryfikacji naukowej, np. Przez przejście procesu recenzowania i dyskusji swoich wyników w czasopismach naukowych.

Rozróżnienie pseudonauki, paranauki i protonauki od nauki jest dla laika trudne. Zdarza się, że w ramach dyskusji publicznej zwolennicy różnych teorii obrzucają się nawzajem oskarżeniami o „pseudonaukowość”, zaś osoby postronne, bez dobrego przygotowania naukowego, nie są w stanie rozsądzić, kto ma rację.

W tego rodzaju sporach, pomocne mogą być następujące zasady:

Jeśli postulowane teorie mogą być potencjalnie zweryfikowane eksperymentalnie, to mogą one być także uznane za potencjalnie naukowe, nawet jeśli stoją w ostrej sprzeczności z dotychczasowymi teoriami naukowymi.

Jeśli postulowanych teorii nie da się z jakichś względów w ten sposób zweryfikować, to mogą świadczyć o pseudonaukowości wywodu lub braku środków technicznych na obecnym poziomie rozwoju nauki do realizacji eksperymentu potwierdzającgo lub je obalającego.

Jeśli postulowana teoria jest już negatywnie zweryfikowana eksperymentalnie lub jeśli jej zwolennicy odmawiają poddania się testom eksperymentalnym, to teoria ta prawdopodobnie jest pseudonaukową.

Przykłady:

Badacze poszukują sygnałów od obcych cywilizacji w ramach projektu SETI. Analizują oni na bazie uznanej wiedzy naukowej możliwość istnienia innych niż ludzka cywilizacji w kosmosie i starają się wyszukiwać w bardzo żmudny sposób dowodów na ich ewentualne istnienie, lecz nie twierdzą, że takie cywilizacje istnieją. Można więc zasadnie uznać, że projekt SETI jest rodzajem protonauki.

Ludzie zajmujący się ufologią, przyjmują za niemal pewne istnienie obcej cywilizacji w oparciu o – według nich – przekonywające relacje świadków, dowody w postaci fotografii, czy nagrania wideo.

Akupunktura – jako metoda lecznicza może być z powodzeniem testowana eksperymentalnie. Można ją zatem zasadnie uznać za rodzaj paranauki. Utrzymywanie, że jest ona skuteczna w licznych schorzeniach, w których jak już dowiedziono eksperymentalnie jest zupełnie nieefektywna, według współczesnych kryteriów stosowanych do testowania środków leczniczych stosowanych w medycynie, jest głoszeniem teorii pseudonaukowych.

Dodatkowe formy identyfikacji pseudonauki

Pseudonauka, w oczach nauki, nie spełnia kryteriów oceny naukowości, które są stosowane przez tę ostatnią (zwłaszcza nie stosowanie się do zasad metody naukowej). Pseudonaukę charakteryzują zwykle następujące cechy, z których każda może wystąpić razem z innymi lub osobno:

głoszenie prawdziwości teorii, zanim zostaną one zweryfikowane eksperymentalnie

głoszenie teorii, które są tak skonstruowane, że nie da się ich zweryfikować naukowo

głoszenie teorii, które zostały negatywnie zweryfikowane eksperymentalnie

głoszenie teorii, które stoją w jawnej sprzeczności z teoriami dobrze udokumentowanymi eksperymentalnie

odmowa poddania własnych teorii weryfikacji eksperymentalnej

odmowa dostarczenia własnych dowodów, które będą na tyle silne, aby wytrzymać proces recenzowania publikacji naukowych

głoszenie wadliwie skonstruowanych teorii – niepoddających się falsyfikacji, lub łamiących zasadę tzw. Brzytwy Ockhama (zasady ekonomii myślenia).

Andrzej Kajetan Wróblewski w książce poświęconej pseudonauce „Prawda i mity w fizyce” przedstawia następujące kryteria, które „pozwalają odróżnić prace pseudonaukowe od innych” [1]:

Mania wielkości autora, który uważa, że jako jedyny zna prawdę, odnosi się pogardliwie do wszystkich uczonych z prawdziwego zdarzenia, zarzucając im w niewybrednych słowach konserwatyzm lub wręcz nieuctwo.

Tekst pracy pseudonaukowej jest zwykle bełkotem polegającym albo na wprowadzeniu nowej terminologii znanej tylko autorowi, albo na posługiwaniu się słowami wprawdzie znanymi, ale przemieszanymi na zasadzie doboru przypadkowego (np. zmarszczki czasoprzestrzeni, ginekologia międzyplanetarna), co świadczy o ich niezrozumieniu przez autora.

Ignorancja objawiająca się zarówno w nieznajomości dobrze ustalonych faktów, jak również w bezpodstawnym zaprzeczaniu a priori wszystkiemu, co nie zgadza się z poglądami autora.

Kompletne niezrozumienie ducha nauki objawiające się w stawianiu „nauce oficjalnej” zarzutu, że nie potrafi na wszystko odpowiedzieć. Pseudonaukowiec nie rozumie, że nauka rozwija się właśnie dlatego, iż musi szukać odpowiedzi na wciąż nowe pytania.

Pseudonaukowiec lubi także podpierać się wymyślonymi przez siebie autorytetami (jak np. „profesor” George Adamski, którego związek z nauką polegał na tym, iż prowadził kawiarnię u podnóża Mount Palomar).

Pseudonauka i mass media

Tzw. nauka popularna, obecna często w mediach, miesza często wiedzę uznaną za naukową z pseudonauką lub paranauką, zacierając w oczach opinii publicznej różnice między nimi.

Część krytyków pseudonauki uważa, że wiedza ta jest na ogół rodzajem nieszkodliwej formy rozrywki, przyciągającej osoby poszukujące taniej sensacji. Inni jednak, (m.in. Richard Dawkins i Carl Sagan) twierdzą, że wszelkie rodzaje pseudonauki są szkodliwe społecznie, gdyż prowadzą do zniekształcania rzeczywistości i podejmowania ważnych decyzji w oparciu o tak fałszywe przesłanki. Część mediów w sposób świadomy lub nieświadomy, poprzez prezentacje faktów poprzez pryzmat pseudonauki lub przez prezentację faktów, które nie miały miejsca dokonuje manipulacji opiną publiczną. Dodatkowo nauka kontrowersyjna odbiera miejsce w środkach masowego przekazu nauce, jako bardziej atrakcyjna przez swoją sensacyjność dla masowego konsumenta.

Paranauki, pseudonauki

Lista teorii, zjawisk i nauk, które w całości, albo częściowo są uznawane za paranaukę lub pseudonaukę przez większość naukowców

akupresura

akupunktura

alchemia

aromaterapia

astrologia

bioenergoterapia

biorytmy

homeopatia

irydologia

kreacjonizm (w tym teoria inteligentnego projektu)

kryptozoologia

marryzm (tak zwana „nowa nauka o języku”)

medycyna alternatywna

numerologia

paleoastronautyka

pamięć wody

parapsychologia

perpetuum mobile (wieczny ruch, darmowa energia)

prekognicja

psychofizjonomika

psychokineza

radiestezja

refleksologia (uwaga! pod tą samą nazwą występuje dział neurologii zajmujący się odruchami a będący nauką!)

telepatia

ufologia

zermatyzm

zjawiska paranormalne

Bibliografia

Martin Gardner „Pseudonauka i pseudouczeni”, 1966, PWN, Warszawa (ze względów cenzuralnych pominięto rozdział o Łysence)

Andrzej Kajetan Wróblewski (IFD UW, PAN) „Prawda i mity w fizyce”, 1982, Wszechnica PWN, Wrocław (Fragment z książki mówiący o pseudonauce)

Przypisy

^ Andrzej Kajetan Wróblewski: Prawda i mity w fizyce. Warszawa: Iskry, 1987, s. 137. ISBN 83-207-0880-IX.

Zobacz też

James Randi – krytyk pseudonauki, fundator nagrody dla pierwszej osoby, która zdoła dać przekonujący dowód na jakiekolwiek zjawisko paranormalne.

Australijskie Towarzystwo Sceptyków

Linki zewnętrzne

JunkScience.com (en)

Quackwatch (en)

Źródło „https://pl.wikipedia.org/wiki/Pseudonauka”

paradoks czarnego kruka

Z Wikipedii

Brak wersji przejrzanej

Czarny kruk

Nie jest czarne, więc nie jest krukiemParadoks czarnego kruka to paradoks pokazujący pewną niekonsekwencję w procesie poznawczym.

Za każdym razem kiedy widzimy, że pewne twierdzenie zachodzi, nasze poczucie, że jest ono prawdziwe, zwiększa się. Czyli np. jeśli twierdzenie to brzmi „wszystkie kruki są czarne”, widzimy jakiegoś kruka – i okazuje się on rzeczywiście czarny – nasza wiara w to twierdzenie wzrasta.

Lecz twierdzenie to jest formalnie równoważne twierdzeniu „wszystko co nie jest czarne nie jest krukiem”. Czyli jeśli widzimy np. szarego słonia, który jednocześnie nie jest krukiem, nasza wiara w to że wszystkie kruki są czarne również powinna wzrosnąć, co może być uznane za wniosek bardzo nieintuicyjny.

Paradoks czarnego kruka nie jest w rzeczywistości paradoksem, gdyż nie ma tu żadnej sprzeczności, pokazuje on jedynie, że pewne automatyzmy poznawcze nie przestrzegają praw logiki formalnej.

Zobacz też

Twierdzenie Bayesa

Paradoks koni

Źródło „https://pl.wikipedia.org/wiki/Paradoks_czarnego_kruka”

Twierdzenie Bayesa

Twierdzenie Bayesa (od nazwiska Thomasa Bayesa) to twierdzenie teorii prawdopodobieństwa, wiążące prawdopodobieństwa warunkowe zdarzeń oraz. Na przykład, jeśli jest zdarzeniem „u pacjenta występuje wysoka gorączka”, a jest zdarzeniem „pacjent ma grypę”, twierdzenie Bayesa pozwala przeliczyć znany odsetek gorączkujących wśród chorych na grypę i znane odsetki gorączkujących i chorych na grypę w całej populacji, na prawdopodobieństwo, że ktoś jest chory na grypę, gdy wiemy, że ma wysoką gorączkę. Twierdzenie stanowi podstawę teoretyczną sieci bayesowskich, stosowanych w data mining.

Spis treści

1 Wzór Bayesa

1.1 Teza

1.2 Dowód

2 Interpretacje

2.1 Prawdopodobieństwo subiektywistyczne

3 Zastosowania

3.1 Przykład użycia

4 Zobacz też

5 Linki zewnętrzne

Wzór Bayesa

Teza

Niech:

Wtedy:

Dowód

Interpretacje

Prawdopodobieństwo subiektywistyczne

W interpretacji subiektywistycznej jest twierdzeniem wręcz podstawowym. Otóż niech X będzie pewnym zdarzeniem, T zaś pewną teorią.

P(X) jest obserwowanym prawdopodobieństwem X, zaś P(X | T) to prawdopodobieństwo, że X nastąpi według teorii T. Z kolei P(T) to prawdopodobieństwo, że teoria T jest prawdziwa, P(T | X) to prawdopodobieństwo, że teoria T jest prawdziwa, jeśli zaobserwowano X.

Zdania typu „prawdopodobieństwo, że teoria T jest prawdziwa” są z punktu widzenia interpretacji obiektywistycznej nie do przyjęcia – teoria jest prawdziwa (prawdopodobieństwo równe jedności) lub też nie (prawdopodobieństwo równe zeru), czyli prawdziwość teorii nie jest zdarzeniem losowym.

Zastosowania

W praktyce używa się zazwyczaj przekształconej wersji twierdzenia Bayesa, gdzie P(X) wyrażone jest jako suma lub całka Lebesgue’a po T.

Przykład użycia

Twierdzenia Bayesa można użyć do interpretacji rezultatów badania przy użyciu testów wykrywających narkotyki. Załóżmy, że przy badaniu narkomana test wypada pozytywnie w 99% przypadków, zaś przy badaniu osoby nie zażywającej narkotyków wypada negatywnie w 99% przypadków. Pewna firma postanowiła przebadać swoich pracowników takim testem wiedząc, że 0,5% z nich to narkomani. Chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie rzeczywiście zażywa narkotyki. Oznaczmy następujące zdarzenia:

D – dana osoba jest narkomanem

N – dana osoba nie jest narkomanem

+ – u danej osoby test dał wynik pozytywny

− – u danej osoby test dał wynik negatywny

Wiemy, że:

P(D) = 0,005, gdyż 0,5% pracowników to narkomani

P(N) = 1 – P(D) = 0,995

P(+ | D) = 0,99, gdyż taką skuteczność ma test przy badaniu narkomana

P(− | N) = 0,99, gdyż taką skuteczność ma test przy badaniu osoby nie będacej narkomanem

P(+ | N) = 1 – P(− | N) = 0,01

Mając te dane chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie, rzeczywiście jest narkomanem. Tak więc:

Mimo potencjalnie wysokiej skuteczności testu, prawdopodobieństwo, że narkomanem jest badany pracownik, u którego test dał wynik pozytywny, jest równe około 33%, więc jest nawet bardziej prawdopodobnym, ze taka osoba nie zażywa narkotyków. Ten przykład pokazuje, dlaczego ważne jest, aby nie polegać na wynikach tylko pojedynczego testu.

Innymi słowy, pozorny paradoks polegający na dużej dokładności testu (99% wykrywalności narkomanów wśród narkomanów i nieuzależnionych wśród nieuzależnionych) i niskiej dokładności badania bierze się stąd, że w badanej próbie tylko niewielka część osób to narkomani. Przykładowo badając 1000 osób, 0,5% z nich czyli 5 to narkomani, a 995 nie. Natomiast test wskaże jako narkomanów 1% nieuzależnionych (995*1% ? 10), oraz 99% uzależnionych (5*99% ? 5). Ostatecznie test wypadł pozytywnie dla 15 osób, jednak tylko 5 z nich to narkomani.

Zobacz też

Przegląd zagadnień z zakresu matematyki

Linki zewnętrzne

Thomas Bayes. „An essay towards solving a Problem in the Doctrine of Chances” (Bayes’s essay in the original notation)

Źródło „https://pl.wikipedia.org/wiki/Twierdzenie_Bayesa”

paradoks koni

Z Wikipedii

Paradoks koni – paradoks polegający na błędnym użyciu indukcji matematycznej.

Udowodnimy, że wszystkie konie są jednej maści. Posłużymy się indukcją matematyczną względem liczby koni. Sprawdzamy pierwszy krok indukcyjny – zbiór złożony z jednego konia jest zbiorem koni jednej maści. Zakładamy teraz, że (dla ustalonego n) wszystkie konie w każdym zbiorze n-elementowym koni są jednej maści. Pokażemy, że w takim razie teza zachodzi także dla wszystkich zbiorów (n+1)-elementowych koni.

Dodajmy do dowolnego n-elementowego zbioru nowego konia. Mamy zbiór (n+1)-elementowy. Teraz odprowadźmy z tego zbioru któregoś konia, ale nie tego, którego właśnie dodaliśmy. Otrzymujemy więc zbiór n-elementowy koni. Z założenia indukcyjnego wszystkie konie w tym zbiorze są jednej maści. W takim razie nowo dodany koń jest tej samej maści, co pozostałe. Teraz możemy z powrotem przyprowadzić konia usuniętego z naszego zbioru (który jest oczywiście tej samej maści, co pozostałe) i otrzymujemy zbiór (n+1)-elementowy koni jednej maści.

Jest to nie tyle paradoks, co błędne użycie metody indukcji matematycznej. Zauważmy bowiem, że drugi krok indukcyjny przechodzi tylko dla zbiorów co najmniej dwuelementowych. Jeśli do zbioru jednoelementowego dodamy kolejnego konia, a później odejmiemy konia z owego początkowego zbioru, to nie mamy wcale gwarancji, że koń ów i koń dodany mają ten sam kolor. Taką gwarancję daje nam dopiero zbiór dwuelementowy. Indukcja nie zachodzi więc już dla n = 1.

Zobacz też

Paradoks czarnego kruka

Biały koń nie jest koniem

Źródło „https://pl.wikipedia.org/wiki/Paradoks_koni”

Indukcja matematyczna

W matematyce, termin indukcja matematyczna używany jest na określenie szczególnej metody dowodzenia twierdzeń (w najbardziej typowych przypadkach o liczbach naturalnych) ale także jest on używany na oznaczenie konstrukcji pewnych obiektów.

Wbrew nazwie, argumenty oparte na indukcji matematycznej nie są rozumowaniami indukcyjnymi, lecz dedukcyjnymi. Najstarszy znany dowód indukcyjny był podany przez Francesco Maurolico w pracy Arithmeticorum libri fuo w 1575. Maurolico udowodnił przez indukcję, że suma pierwszych n nieparzystych liczb naturalnych wynosi n2.

Spis treści

1 Intuicje

2 Twierdzenia o indukcji matematycznej

2.1 Wersja podstawowa

2.2 Wariant zwany indukcją zupełną

3 Aksjomat czy twierdzenie?

4 Twierdzenie o definiowaniu indukcyjnym

5 Jak stosujemy indukcję

6 Zobacz też

Intuicje

Efekt dominaZarówno definicje indukcyjne jak i twierdzenie o indukcji matematycznej można porównać do rozumowań krok po kroku, gdzie kroki są ponumerowane liczbami naturalnymi. Sedno dowodów indukcyjnych leży w uzasadnieniu, że w pierwszym kroku dane stwierdzenie jest prawdziwe, oraz że dla każdego z prawdziwości twierdzenia dla kroku n wynika prawdziwość twierdzenia dla kroku n+1.

Często używaną ilustracją dla tego typu argumentacji jest efekt domina. Wyobraźmy sobie że ustawiliśmy szereg kamieni używanych do gry w domino tak, że stoją one jeden za drugim na krótszym boku. Musimy się upewnić, że popchnięcie jednego kamienia spowoduje jego przewrócenie, oraz zakładamy że dowolna ilość kamieni ustawiona jeden za drugim przewróci się po popchnięciu pierwszego z nich. Możemy teraz udowodnić dowodząc krok indukcyjny, że szereg powiększony o jedną kostkę dostawioną na końcu także się przewróci.

Twierdzenia o indukcji matematycznej

Następujące twierdzenia są natychmiastową konsekwencją bardzo intuicyjnej własności liczb naturalnych, stwierdzającej że w każdym niepustym zbiorze liczb naturalnych jest liczba najmniejsza.

Wersja podstawowa

Przypuśćmy, że P(n) jest pewnym wyrażeniem (czyli formułą w jakimś języku) w którym jedyną zmienną wolną jest n i dziedzina tej zmiennej zawiera wszystkie liczby naturalne. Załóżmy, że

(a) P(1) jest zdaniem prawdziwym oraz

(b) dla każdego zachodzi implikacja.

Wówczas P(n) jest prawdziwe dla każdej liczby naturalnej.

Wariant zwany indukcją zupełną

Przypuśćmy, że P(n) jest pewnym wyrażeniem, w którym jedyną zmienną wolną jest n i dziedzina tej zmiennej zawiera wszystkie liczby naturalne. Załóżmy, że

(c) dla każdej liczby naturalnej zachodzi implikacja.

Wówczas P(n) jest prawdziwe dla każdego.

Aksjomat czy twierdzenie?

Powyżej używaliśmy określenia Twierdzenie o Indukcji, ale w wielu źródłach można spotkać określenie Aksjomat Indukcji. Jaki jest więc rzeczywisty status indukcji: jest to twierdzenie czy też aksjomat? Odpowiedź na to pytanie zależy od kontekstu w którym jest ono stawiane.

W matematyce elementarnej, zastosowaniach matematyki czy też w matematyce dyskretnej dominuje tendencja do mówienia o Twierdzeniu o Indukcji Matematycznej, także z tego powodu, że w tych rozważaniach unika się przesadnej formalizacji. Często wprowadzając indukcję matematyczną podaje się wówczas dowód twierdzenia o indukcji przy założeniu dobrego uporządkowania liczb naturalnych (tzn. zakładając, że każdy niepusty podzbiór zbioru liczb naturalnych zawiera element najmniejszy).

W logice, natomiast, (szczególnie gdy liczby naturalne są wprowadzane w oparciu o aksjomatykę Peano), traktujemy indukcję jako aksjomat (jeden z aksjomatów arytmetyki Peano). Zwykle chcemy aby rozwijana teoria była sformalizowana w logice pierwszego rzędu – w tym wypadku mamy do czynienia nie z jednym aksjomatem, ale z nieskończoną listą aksjomatów (indeksowanych formułami). Tak więc dla każdej formuły ? wprowadzamy następujący aksjomat:

(gdzie S jest jedno argumentowym symbolem funkcyjnym, oznaczającym funkcję „następnika”). Należy zwrócić uwagę, że ta nieskończona lista aksjomatów jest wciąż znacznie słabsza od często formułowanej zasady indukcji w której kwantyfikuje się po wszystkich predykatach:

jeśli 0 jest elementem zbioru oraz zbiór ten spełnia warunek, to.

Twierdzenie o definiowaniu indukcyjnym

Ważną konsekwencją zasady indukcji jest następujące twierdzenie uzasadniające poprawność definiowania rekurencyjnego:

Niech A będzie niepustym zbiorem i niech U będzie zbiorem wszystkich ciągów skończonych o wyrazach w A. Przypuśćmy, że dana jest funkcja. Wówczas istnieje jedyna funkcja taka, że dla każdej liczby naturalnej mamy.

Przypomnijmy, że symbol oznacza obcięcie funkcji, a więc jest zawężeniem funkcji g do pierwszych n liczb naturalnych (czyli jest to ciąg skończony długości n).

Jak stosujemy indukcję

Jeśli T(n) oznacza pewne twierdzenie mówiące o liczbach naturalnych n, to aby udowodnić, że twierdzenie to jest prawdziwe dla każdej liczby naturalnej n nie mniejszej od n0 (samo n0 może być równe 1 albo być inną ustaloną liczbą naturalną), wystarczy:

dowieść, że jest ono prawdziwe dla liczby n0, to znaczy sprawdzić, że zachodzi T(n0).

dla każdej liczby naturalnej n nie mniejszej od n0, wychodząc z założenia, że twierdzenie to jest prawdziwe dla liczby n, wyprowadzić, że jest ono prawdziwe dla n + 1, chodzi bowiem o to, aby wykazać, że dla każdej liczby naturalnej n nie mniejszej od n0 prawdziwa jest implikacja:

Zobacz też

przegląd zagadnień z zakresu matematyki,

przykłady dowodów indukcyjnych,

przykład błędnego użycia indukcji,

indukcja pozaskończona,

indukcja strukturalna,

aksjomat indukcji,

rekurencja

Biały koń nie jest koniem

Z Wikipedii

Czy to koń?Biały koń nie jest koniem (????) – słynny sofizmat, który ukuł chiński filozof Gong Sunlong (320–250 p.n.e.)

Według legendy Gong przekraczał granice między dwoma chińskimi państwami i celnicy zażądali odeń myta za należącego do niego konia o białej maści. Przeprowadził on wówczas wywód, w którym udowodnił, że „Biały koń nie jest koniem”.

Jego rozumowanie brzmiało następująco Słowo „koń” odnosi się do kształtu nazywanej rzeczy. Słowo „biały” – do jej koloru. Nazwa kształtu, nie jest nazwą koloru, dlatego można powiedzieć, że biały koń nie jest „koniem”).

Istnieją jeszcze inne metody przeprowadzenia tego sofizmatu, można powiedzieć, że nazwa „koń” odnosi się do wszelkich maści, toteż wyrażenie „dosiadać konia” może oznaczać jazdę na koniu gniadym, karym itd. Natomiast w wyrażeniu „dosiadać białego konia”, chodzi tylko o konia białej maści. Dlatego właśnie „Biały koń nie jest koniem”.

Źródło „https://pl.wikipedia.org/wiki/Biały_koń_nie_jest_koniem”

Krytyczny racjonalizm

Brak wersji przejrzanej

Krytyczny racjonalizm jest to nazwa nurtu we współczesnej filozofii nauki zainicjowanego przez Karla R. Poppera. Termin ten występować może w co najmniej trzech znaczeniach:

całość lub fragment poglądów Karla Poppera;

całość lub fragment poglądów popperystów czyli uczniów Poppera;

świadome lub nie nawiązywanie w twórczości do poglądów Poppera lub jego uczniów.

Zamiennie stosuje się termin „krytyczny racjonalizm” z terminem „popperyzm” i – mając na myśli wyłącznie przedsięwzięcia z dziedziny filozofii nauki (Poppera lub jego zwolenników) – z terminem „falsyfikacjonizm”.

Krytyczny racjonalizm określić można następująco. Krytycyzm (w nazwie tej nawiązuje Popper świadomie do filozofii krytycznej Kanta) sprowadza się do postawy głoszącej, że wszystko to, co w danym momencie uznaliśmy za dowiedzione, później może być podane w wątpliwość.

Należy być krytycznym w stosunku do teorii, którymi zachwycamy się najbardziej.

Racjonalizm, w tym konkretnym przypadku, to przekonanie, że wszelka wiedza (w tym wiedza naukowa) rozwijająca się zgodnie z regułami metodologicznymi jest ucieleśnieniem ludzkiej racjonalności, ale nie tylko.

Falsyfikacjonizm jest to zbiór procedur metodologicznych, które, w opinii autorów tego stanowiska, chcący się przyczynić do rozwoju wiedzy naukowej badacz musi stosować. Osią tego ujęcia jest przekonanie, że dla teorii naukowych nie należy szukać potwierdzenia (weryfikacji), lecz kontrprzypadków, mogących badanej teorii zaprzeczyć. Należy zatem dążyć do sfalsyfikowania teorii (wykazania jej niezgodności z doświadczeniem), a jeśli próba się nie powiedzie uznać, tymczasowo, teorię, aż do następnej próby falsyfikacji, która dla teorii skończyć się może obaleniem. Falsyfikacjonizm występuje w trzech odmianach: dogmatycznej, naiwnej i wyrafinowanej. Niekiedy używa się też określenia „hipotetyzm”, zwłaszcza dla późniejszych wersji falsyfikacjonizmu.

Spis treści

1 Krytyczny racjonalizm

2 Falsyfikacjonizm

2.1 Falsyfikacja jako odmiana sprawdzania

2.2 Falsyfikacjonizm a inne stanowiska w rozwoju wiedzy naukowej

2.2.1 Justyfikacjonizm

2.2.2 Probabilizm

2.2.3 Falsyfikacjonizm

2.2.3.1 Dogmatyczny (naturalistyczny) falsyfikacjonizm

2.2.3.2 Naiwny (hipotetyczny) falsyfikacjonizm

2.2.3.3 Wyrafinowany falsyfikacjonizm

2.2.3.3.1 Wersja Lakatosa

2.2.3.3.2 Wersja Feyerabenda

2.2.4 Paradygmatyczny rozwój wiedzy naukowej

2.2.4.1 Krytyka falsyfikacjonizmu Poppera

2.2.5 Kontrindukcjonizm

2.2.5.1 Krytyka falsyfikacjonizmu Poppera

3 Odpowiedź Poppera na krytykę ze strony uhistorycznionej filozofii nauki

3.1 Ponumerowane światy Poppera

3.2 Problem rozumienia a Świat3

3.3 Czy można ocalić popperowski schemat rozwoju wiedzy?

3.3.1 Modyfikacja schematu Poppera

4 Literatura

Krytyczny racjonalizm

Znaczenie terminu „krytyczny racjonalizm” w odniesieniu do filozofii Poppera wyjaśnić można następującymi jego słowami.

Na jakiej podstawie możemy mieć nadzieję na wykrycie i eliminację błędu? … Poprzez krytykowanie teorii i spekulacji innych, oraz, o ile potrafimy się w tym wyćwiczyć, również przez krytykowanie naszych własnych teorii i spekulacji… Odpowiedź ta podsumowuje stanowisko, które proponuję nazwać „krytycznym racjonalizmem”.

Istotę krytycznego racjonalizmu, za Popperem, przedstawić można tak:

Nastawienie krytyczne, tradycja swobodnego dyskutowania teorii mająca na celu ich modyfikację – odkrycie ich słabych miejsc – jest nastawieniem racjonalnym. Z tej perspektywy wszystkie prawa i teorie pozostają na zawsze tymczasowe, mają charakter hipotetyczny i przypuszczalny, nawet wtedy, gdy nie czujemy się zdolni do dalszego w nie wątpienia.

Krytycyzm nie sprowadza się tu do żadnej z odmian sceptycyzmu, lecz do tego, co ochrzczone zostało mianem „fallibilizmu”, czyli do postawy głoszącej, iż wszystko to, co w danym momencie uznaliśmy za dowiedzione, później może być podane w wątpliwość. Krytycyzm jest więc dla Poppera antysceptycyzmem (poznanie, pomimo że jest niepełne i tymczasowe, charakteryzuje się postępem resp. wzrostem wiedzy, wyznacznikiem którego nie jest jakiś punkt dojścia, lecz rozszerzanie się zasięgu wiedzy ludzkiej) i fallibilizmem (poznanie jest niepełne i tymczasowe, jesteśmy omylni ponieważ nie istnieją środki pozwalające nam na definitywne dokonywanie rozstrzygnięć prawdziwościowych i fałszywościowych).

Racjonalizm pojmuje Popper w następujący sposób: wiedza (w tym wiedza naukowa) rozwijająca się zgodnie z regułami metodologicznymi jest ucieleśnieniem ludzkiej racjonalności. Reguły te są regułami racjonalnego postępowania badawczego. Stanowią wzorzec racjonalnego postępowania w ogóle. Są one niezależne od badacza w tym sensie, że chcąc przyczynić się do wzrostu wiedzy musi je stosować.

Wszelkie nastawienie, kładące nacisk na weryfikowanie sformułowanych przez nas hipotez drogą szukania dla nich zastosowań i ich potwierdzania, nazywa Popper nastawieniem dogmatycznym. Przeciwstawia mu swoje stanowisko, nazywając je nastawieniem krytycznym, wyrażając je przez postulat nieustannej gotowości do zmiany naszych hipotez drogą ich testowania, odrzucania, falsyfikowania. Naukowiec powinien spoglądać na teorię przez pryzmat jej zdolności do krytycznej dyskusji: czy jest ona otwarta na wszelki możliwy krytycyzm i czy jest w stanie mu się przeciwstawić. Dopiero wtedy gdy teoria z powodzeniem przeciwstawia się naporowi miażdżących refutacji (obaleń), możemy utrzymywać, że została potwierdzona przez dotychczasowe doświadczenie, lub, jak mówi w Logice odkrycia naukowego, że okazała hart. Nastawienie krytyczne utożsamia z nastawieniem naukowym, a nastawienie dogmatyczne z pseudonaukowym.

Istotę nastawienia krytycznego ujmuje w postaci siedmiu tez. (1) Nieomalże dla każdej teorii łudząco łatwo jest uzyskać konfirmacje. (2) Powinniśmy oczekiwać takiego zdarzenia, które będzie niezgodne z teorią i będzie mogło ją obalić. (3) Każda dobra teoria naukowa jest zakazem – wyklucza zajście określonych zdarzeń, im więcej ich zakazuje, tym jest lepsza. (4) Nieobalalna przez jakiekolwiek dające się pomyśleć zdarzenie teoria jest nienaukowa – nieobalalność teorii nie jest zatem jej mocnym punktem, lecz jej wadą. (5) Każdy test teorii jest próbą jej obalenia. (6) Konfirmujące daną teorię zdarzenie ma jedynie wtedy znaczenie gdy jest wynikiem nieudanej próby jej obalenia. (7) Zawsze możliwa do przeprowadzenia procedura wprowadzania ad hoc pomocniczych założeń do teorii celem uchronienia jej przed obaleniem ratuje ją za cenę zniszczenia, lub co najmniej obniżenia jej naukowego charakteru.

Krytyczny racjonalizm Poppera scharakteryzować można za pomocą następującego zespołu fundamentalnych twierdzeń:

Myślenie to rozwiązywanie problemów, dokonujące się drogą dedukcji. Umysł nasz konstruuje pojęcia, domysły, hipotezy i teorie, które później poddaje krytycznej obróbce. Ta praca umysłu nie ma ani początku ani końca.

Nie istnieją ani żadne pojęcia pierwotne, ani pierwotne elementy poznania, które umysł ma wydobyć na jaw. Wszelka praca umysłu ma tymczasowy charakter, w tym sensie, że nie tworzy on, ani nie odkrywa żadnych niezmiennych praw. To, co dziś uznane zostało za pewne, może jutro zostać poddane krytycznej dyskusji, bowiem struktury jakie podmiot narzuca na świat są zmienne. Ich narzucanie dokonuje się metodą prób i błędów. Poznający podmiot odpowiada na wynikłe w trakcie rozwoju wiedzy pytania – sytuacje problemowe. Wiedza mająca tymczasowy charakter służy przetrwaniu gatunku ludzkiego i przystosowaniu się do wrogiego środowiska.

Celem nauki jest tworzenie nowych, coraz bardziej śmiałych, bo opisujących większą klasę zjawisk, teorii.

Hans Albert różnicę pomiędzy krytycznym racjonalizmem a racjonalizmem tradycyjnym ujmuje przez pryzmat odmiennego podejścia obydwu do zagadnienia metody naukowej. Tradycyjna metodologia (i tradycyjny racjonalizm) zorientowana była na metodologiczną wersję zasady racji dostatecznej stwierdzającą, że każde przekonanie oparte musi być na niewzruszonych podstawach. Z racji na to, że program ten jest w zasadzie niewykonalny – prowadzi bowiem do następującego trylematu (zwanego trylematem Friesa): albo prowadzimy uzasadnianie w nieskończoność, albo popadamy w błędne koło dedukcji i w procesie uzasadniania odwołujemy się do wypowiedzi, które poprzednio występowały jako wymagające uzasadnienia, albo w określonym miejscu, arbitralnie przerywamy ciąg uzasadnień, co stanowi zawieszenie zasady racji dostatecznej – i jako taki prowadzi do dogmatyzmu, krytyczny racjonalizm określa nową koncepcję racjonalności drogą zastąpienia (zawieszenia) zasady racji dostatecznej zasadą krytycznego sprawdzania. Zaletą tego stanowiska jest unikanie odwoływania się do dogmatów i rezygnacja z pewności przekonań przy jednoczesnym zachowaniu – z klasycznego racjonalizmu – dążenia do prawdy obiektywnej. Zadaniem filozofii staje się wtedy nie obrona dotychczasowej wiedzy, lecz aktywny krytycyzm, czyli uznanie wszelkich wypowiedzi za hipotezy.

Paul Feyerabend krytyczny racjonalizm określa (kontekstowo) tak:

racjonalna dyskusja polega na próbie krytykowania. Nie zaś udowadniania czy uprawdopodobniania. Każdy krok, który chroni jakiś pogląd przed krytyką i sprawia, że staje się on bezpieczny czy „dobrze ugruntowany” oznacza oddalenie się od racjonalności. Każdy krok wystawiający go na ciosy jest mile widziany. Ponadto zaleca się porzucenie wybrakowanej koncepcji, zakazuje się podtrzymywania jej wobec silnej i efektywnej krytyki, chyba że da się przedstawić odpowiednie kontrargumenty. Podaj swoje idee w postaci umożliwiającej ich krytykę; atakuj je bezlitośnie; nie próbuj ich bronić, lecz ukaż ich słabe punkty; pozbądź się ich, skoro tylko słabe punkty dadzą sobie znać…

(Przeciw metodzie)

Krytyczny racjonalizm jest tym nurtem metodologii, który wywarł najsilniejszy wpływ na współczesną filozofię nauki. Z krytycznym racjonalizmem dyskutują w zasadzie wszystkie współczesne metodologie. W postaci zaproponowanej przez protoplastę całego nurtu Poppera jest on niezmiernie trudny do utrzymania.

Grono najwybitniejszych uczniów Poppera, krytycznych racjonalistów tworzą: Imre Lakatos, John Watkins, Joseph Agassi, Alan E. Musgrave, Hans Albert, oraz Paul Karl Feyerabend, choć, ten ostatni, wypiera się jakichkolwiek niekrytycznych związków ze swoim mistrzem.

Falsyfikacjonizm

Falsyfikacjonizm wywodzi się od słowa „falsyfikacja” (słowo wywodzi się z łac. falsum – fałsz) a to z kolei oznacza procedurę sprawdzania negatywnego i jest jedną z odmian rozumowania. Falsyfikacjonizm potraktowany zbiór procedur metodologicznych jest jednym ze stanowisk w kwestii rozwoju wiedzy naukowej. Tak rozumiany falsyfikacjonizm zwykle wiązany jest z nazwiskiem Karla Poppera, choć pewne idee odnaleźć można u Williama Whewella, Charlesa Sandersa Peirce’a czy Cloda Bernarda.

Falsyfikacja jako odmiana sprawdzania

Sprawdzanie – definiując za Ajdukiewiczem pojęcie – jakiegoś zdania, np. zdania „a jest b” polega na rozwiązaniu zadania, które znajduje swe słowne sformułowanie w tzw. pytaniu rozstrzygnięcia „czy a jest b?”. Rozwiązaniem jest udzielenie jednej z dwóch właściwych odpowiedzi: „a jest b” albo „a nie jest b” na podstawie stwierdzenia prawdziwości lub fałszywości pewnych następstw wyprowadzonych ze zdania „a jest b”. W związku z powyższym procedura sprawdzania nie wyznacza jednoznacznie postaci konkluzji, wyinferowanie której zakończy proces sprawdzania.

W procesie sprawdzania wyróżnić można następujące fazy: (a) postawienie pytania rozstrzygnięcia: „czy a jest b?”; (b) wyprowadzenie ze zdania „a jest b” jakichś następstw; (c) uznanie lub odrzucenie tych następstw.

Wnioskowanie (inferencja), prowadzące do uznania lub odrzucenia tych następstw i w sumie do uznania lub odrzucenia zdania sprawdzanego, przebiega jedną z dwóch dróg: (1) od odrzucenia następstw do odrzucenia racji – droga dedukcyjna; (2) od uznania następstw do uznania racji – droga dedukcyjna albo redukcyjna: (2.1.) dedukcyjna gdy następstwa są równoważne ze zdaniem sprawdzanym; (2.2.) redukcyjna gdy następstwa nie są równoważne ze zdaniem sprawdzanym.

Tak rozumiane sprawdzanie występuje w dwóch odmianach:

sprawdzanie pozytywne, które również występuje w dwóch odmianach:

weryfikacji czyli potwierdzenia całkowitego (przykład: „Wszystkie dziewczyny w wieku 17–19 lat mieszkające obecnie w Łodzi są dziewicami” – całkowite potwierdzenie tego zdania jest możliwe, o zdaniu tym powiemy, że jest weryfikowalne, a procedurę potwierdzenia go – wskazując na owe dziewice – nazwiemy weryfikacją);

konfirmacji czyli potwierdzenia częściowego (przykład: „Wszystkie orbity planet są elipsami” – całkowite potwierdzenie tego zdania nie jest możliwe, nic nie wiemy ani o orbitach planet których jeszcze nie ma, ani o orbitach planet, których już nie ma, o zdaniu tym powiemy, że jest konfirmowalne, a procedurę potwierdzenia – wskazując na orbity planet naszego układu słonecznego, czyli tylko na pewną podklasę planet – nazwiemy konfirmacją).

sprawdzanie negatywne, które też występuje w dwóch odmianach:

dyskonfirmacji, czyli osłabienia mocy danego twierdzenia (przykład: „Wszystkie dziewczyny w wieku 17–19 lat mieszkające obecnie w Łodzi są dziewicami” – o zdaniu tym powiemy, że jest dyskonfirmowalne i zostało zdyskonfirmowane wskazując, że niektóre z Łodzianek znajdujące się w tym przedziale wiekowym nie są dziewicami);

falsyfikacji, czyli wykazania fałszywości (przykład: „Wszystkie orbity planet są okręgami” – o zdaniu tym powiemy, że jest falsyfikowalne i zostało sfalsyfikowane, wskazując na orbity planet naszego układu słonecznego). W praktyce, różnice między dyskonfirmacją a falsyfikacją są tak znikome, że, bardzo często, dla obydwu procedur stosuje się określenie falsyfikacja.

Nieudaną próbę falsyfikacji jakiegoś twierdzenia nazywa się niekiedy (za Popperem) koroboracją. Teoria czy hipoteza została skoroborowana w chwili gdy nie udało się wykazać jej fałszywości. O takiej teorii lub hipotezie Popper mówi, że „okazała hart” ze względu na negatywny wynik eksperymentu falsyfikującego. W stosunku do następującego twierdzenia: „Wszystkie orbity planet są elipsami”, powiedzieć możemy, że zostało skoroborowane ponieważ (mimo poszukiwań – prób falsyfikacji) nie jest znana orbita planety, która nie jest elipsą.

Falsyfikacjonizm a inne stanowiska w rozwoju wiedzy naukowej

Imre Lakatos w rozprawie Falsyfication and Methodology of Scientific Research Programmes – (polski przekład Falsyfikacja a metodologia naukowych programów badawczych), która jest jednym z rozdziałów książki Criticism and the Growth of Knowledge (A. Musgrave & I. Lakatos eds.) stanowiącej rozszerzony zapis dyskusji z międzynarodowego kolokwium w Londynie z roku 1969 nad zagadnieniem zbudowania teorii wiedzy naukowej, dyskusji toczącej się pomiędzy zwolennikami krytycznego racjonalizmu a uhistorycznioną filozofią nauki – przedstawił następujące grupy stanowisk badające problem rozwoju wiedzy naukowej: justyfikacjonizm, probabilizm, dogmatyczny, naiwny i wyrafinowany falsyfikacjonizm. Rozważania Lakatosa uzupełnione tu będą poszerzonym opisem justyfikacjonizmu, naiwnego falsyfikacjonizmu, oraz dwoma bardzo istotnymi ujęciami tego problemu: koncepcją paradygmatycznego rozwoju wiedzy naukowej oraz kontrindukcjonizem.

Justyfikacjonizm

Justyfikacjonizmem nazywa Lakatos stanowisko, zgodnie z którym wszelka wiedza naukowa składa się z twierdzeń dowiedzionych. W ramach tego stanowiska „klasyczni intelektualiści” („racjonaliści” w wąskim tego słowa znaczeniu – np. Kartezjusz czy Kant) oraz „empiryści” (np. Locke czy Hume) wymagali aby nie twierdzić niczego, co nie jest dowiedzione. Ta tradycja była do wieku XX dominującą tradycją racjonalnego myślenia, w jej ramach występowały trzy podstawowe nurty: kartezjanizm, kantyzm oraz klasyczny empiryzm.

Wszystkie one zgodne były w jednej zasadniczej kwestii: procedury dedukcyjne pozwalają jedynie na poprawne wnioskowania, czyli na przekazywanie prawdy, nie pozwalają jednak na dowodzenie (ustalanie) prawdy. Problem jaki stanął przed nimi polegał na rozstrzygnięciu natury tych wszystkich twierdzeń (aksjomatów), których prawdziwość dowieść można jedynie środkami pozalogicznymi.

Klasyczni intelektualiści odwoływali się tu do intuicji intelektualnej, oczywistości czy objawienia, zaś empiryści do względnie małego zbioru twierdzeń faktualnych, ujmujących twarde fakty, których wartość logiczną ustalało samo doświadczenie i które tworzyły niepodważalną, empiryczną bazę nauki. Wszyscy oni zgodni byli w jeszcze jednej zasadniczej kwestii – pojedyncze zdanie wyrażające twardy fakt obalić może teorię ogólną, natomiast niewielu z nich twierdziło, że skończona koniunkcja twierdzeń faktualnych może dowieść (indukcyjnie) teorii naukowej.

Intelektualistom dedukcyjna logika pozwalała na dowodzenie twierdzeń naukowych każdego rodzaju, o ile zaakceptowane zostaną ich aksjomaty. Dla empirystów sprawa się komplikuje, bowiem dowodzenie na podstawie wąskiej bazy empirycznej wymaga logiki innego rodzaju, logiki indukcyjnej, pozwalającej na przechodzenie od twierdzeń jednostkowych do twierdzeń ogólnych.

O niepowodzeniach ich programów pisze Lakatos następująco:

Jedni i drudzy zostali jednak pokonani: kantyści przez geometrie nieeuklidesowe i nienewtonowską fizykę, empiryści zaś przez logiczną niemożliwość ustalenia bazy empirycznej (fakty nie mogą, na co wskazywali kantyści, dowodzić twierdzeń) i ustanowienia logiki indukcyjnej (żadna logika nie może w niezawodny sposób zwiększać treści. Okazało się, że wszystkie teorie są równie nieudowodnialne.

Wszystkie odmiany epistemologii justyfikacjonistycznej, dla których zmysły są podstawowym źródłem wiedzy orzekają o istnieniu szczególnego stanu umysłu (nazywanego „odpowiednim”, „normalnym”, „zdrowym”, „nieuprzedzonym”, by podać tylko najczęściej używane określenia) pozwalającego na dokonywanie obserwacji prawdy, taką jaka sama z siebie się jawi.

Justyfikacjoniści proponują jakąś formę psychoterapii w celu oczyszczenia umysłu i otwarcia się na rzeczywistość „taką jaka ona jest w swej własnej istocie”. Dla klasycznych empirystów umysł jest tabula rasa – skutkiem określonej psychoterapii staje się uwolniony od wszelkich przesądów teoretycznych. Dla Kartezjusza umysł oczyszczany jest aż do samego cogito, w którym na nowo ustanawia on ego i odnajduje boską dłoń oczywistości wiodącą ku prawdzie. Takie pasywistyczne ujęcie charakterystyczne dla klasycznego empiryzmu i kartezjanizmu traktuje wiedzę prawdziwą jako „odcisk przyrody” w doskonale biernym umyśle. Jedynym rezultatem umysłowej aktywności są zniekształcenia i uprzedzenia.

Neopozytywiści w latach 20 i 30 naszego stulecia rozszerzyli na nauki empiryczne metodę logistyczną, jakiej używali w matematyce Gottlob Frege, Giuseppe Peano, Bertrand Russell i David Hilbert do formalizowania systemów aksjomatycznych. Ich ujęcie struktury teorii naukowej jako odpowiednio uporządkowanego zbioru zdań wyrażonego przy pomocy języka formalnego utrzymało się na tyle długo, że zostało nazwane – przez amerykańskiego filozofa z nurtu analitycznego Hilarego Putnama – Przyjętym Ujęciem niekiedy zwanego również Standardową Koncepcją Teorii Naukowych. Refleksja nad metodą końca XIX w oraz wieku XX w znaczący sposób różni się od pojmowania metodologii w czasach nowożytnych, kiedy to pojmowano ją jako zbiór reguł pozwalający na mechaniczne (algorytmiczne) rozwiązywanie problemów. Współczesne metodologie, stwierdza Imre Lakatos, ujmują zagadnienie inaczej.

(…) na współczesne metodologie lub „logiki odkrycia” składają się po prostu zbiory (chyba nawet ściśle nie wiążących, a tym bardziej mechanicznych) reguł oceniania gotowych, wyartykułowanych teorii. Często te reguły, lub systemy oceniania, służą również jako „teorie racjonalności naukowej”, „kryteria demarkacji” lub „definicje nauki”… Reguły te pełnią podwójną funkcję. Funkcjonują, po pierwsze, jako kodeks uczciwości naukowej, którego łamanie jest nietolerowane; po drugie zaś, jako twarde rdzenie (normatywnych) historiograficznych programów badawczych.

W ramach neopozytywistycznego modelu wiedzy mamy do czynienia ze sztywną demarkacją na zdania sensowne i bezsensowne, a w ramach tych pierwszych na prawdziwe i prawdopodobne. Doprowadziła ona do takiego oto horyzontalnego modelu wiedzy: mamy prawdziwe zdania podstawowe, orzekające się o faktach oraz opierające się na nich prawdopodobne, wyższego rzędu, zdania uniwersalne orzekające się o grupach faktów. Praktykujący naukowiec musi pamiętać o odmienności tych dwóch poziomów i w żadnym przypadku ich ze sobą nie utożsamiać. Musi dokonywać w określony sposób obserwacji, poddawanych później uogólnieniu, zgodnie z regułami indukcyjnej logiki nauki (jakich bezskutecznie poszukiwano w ramach tego modelu wiedzy). Takie i tylko takie działania były racjonalne i tylko taka metoda rozstrzygała o prawomocności poznania. Istotę indukcyjnego modelu wiedzy za Imre Lakatosem przedstawić można następująco:

Gdy indukcjonista akceptuje twierdzenie naukowe, akceptuje je jako dowiedzione, odrzuca je, jeśli dowiedzione nie jest. Jego zasady naukowe są ścisłe: twierdzenie musi być albo dowiedzione na podstawie faktów, albo dedukcyjnie bądź indukcyjnie – wyprowadzone z innych twierdzeń, już dowiedzionych… Krytyka indukcjonistyczna ma przede wszystkim charakter sceptyczny: polega raczej na wykazywaniu, że pewne twierdzenie nie zostało dowiedzione, a zatem jest pseudonaukowe, niż na wykazywaniu, że jest fałszywe… Indukcjonistyczny historyk uznaje jedynie dwa rodzaje autentycznych odkryć naukowych: twarde zdania faktualne i indukcyjne uogólnienia. One i tylko one stanowią osnowę jego historii wewnętrznej… Kiedy radykalnie indukcjonistyczny historyk stanie wobec problemu, dlaczego niektórzy wielcy naukowcy byli dobrego zdania o metafizyce, i co więcej, dlaczego sądzili, że ich odkrycia były wielkie z powodów, które w świetle indukcjonizmu wydają się bardzo dziwaczne, uzna te problemy „fałszywej świadomości” za przedmiot badań psychopatologii, czyli historii zewnętrznej.

Znaczna część poglądów filozofów z kręgu logicznego empiryzmu zajmująca się badaniem naukowym z punktu widzenia oceny rezultatów poznawczych utożsamiała metodę zdobywania wiedzy z metodą jej uzasadniania. Wiodącą była dla nich teza o empirycznej genezie wiedzy oraz o kryteriach empirycznej sensowności, związana ze stanowiskami empirycznego i metodologicznego genetyzmu wywodzącymi wszelką ludzką wiedzę z doświadczenia i w doświadczeniu upatrującymi jej jedynego uzasadnienia.

Obiektywne poznanie świata to poznanie oparte na czystym doświadczeniu, czyli na obserwacji nagich faktów. Zaobserwowane fakty stanowią granicę ścisłości i pewności naukowej, po przekroczeniu której rozpoczyna się wiedza przypuszczalna. Zadaniem filozofii jest krytyczna analiza języka nauki celem oczyszczenia języka z wszelkich nieempirycznych elementów. Punktem wyjścia jest tu teza o biernej roli umysłu w procesie poznania – umysł nasz wtedy jest najlepiej przygotowany do poznawania świata, gdy jest wolny od uprzedzeń w postaci z góry, bez doświadczenia, powziętych spekulacji i oczekiwań, które nie dają się przełożyć na język obserwacji.

Bazą, czyli fundamentem naszej empirycznej wiedzy są uznane zdania spostrzeżeniowe, o charakterze introspekcyjnym bądź ekstaspekcyjnym, tylko one bowiem są definitywnie rozstrzygnięte pod względem prawdziwościowym. Zdania te ujmujące nagie fakty stanowią bazę dla pozostałych czynności naukowych, czyli ich opisu i uporządkowania. Ze względu na zdania spostrzeżeniowe akceptowane mogą być inne zdania nauki, zdania wykraczające poza granice obserwacji; przykładowo: prognozy (czyli przewidywania), uogólnienia empiryczne, itp.

O naukowej postawie badacza świadczy nie tylko jego język empiryczny oraz stosowana przez niego metoda doświadczalna, świadczy o niej również rodzaj problemów jakie badacz podejmuje. Jedynymi problemami naukowymi są problemy nie zmuszające nas do nazbyt odległego wykraczania poza wyniki obserwacji. Właśnie dla tych powodów klasyczne problemy filozofii są problemami pseudonaukowymi, jako że nie dają się rozwiązać przy pomocy ostrożnych metod empirycznych; czyli obserwacji i indukcji.

Granica pomiędzy sensem i nonsensem, zwana kryterium demarkacji, zapewniająca wyrażeniom naszego języka (zdaniom w sensie gramatycznym i logicznym) sensowność przebiega na dwóch płaszczyznach:

Sensowne są zdania prawdziwe ze względu na swą formę, czyli tautologie oraz zdania fałszywe ze względu na swą formę, czyli prawdy i fałsze konieczne. Takie zdania mają charakter analityczny i jako takie nic nowego o świecie nie mówią.

Tylko takie nietautologiczne zdania są sensowne, które sens swój posiadają ze względu na określony stosunek do zdań spostrzeżeniowych. Sensowne są zatem tylko zdania rozstrzygane przez skończoną koniunkcję zdań protokolarnych (wczesna wersja kryterium demarkacji) lub potwierdzalne indukcyjnie przez skończone koniunkcje zdań protokolarnych (późniejsze wersje kryterium demarkacji).

O sensowności danego wyrażenia orzekała metoda jego rozstrzygania – dla zdań weryfikacja, orzekanie dla nazw. Nazwy indywidualne i orzeczniki obserwacyjne (czyli nazwy własności obserwowalnych, których przysługiwanie lub nieprzysługiwanie indywidualnym makroskopowym przedmiotom da się definitywnie rozstrzygnąć o krótki, skończony ciąg prostych obserwacji) to całkowicie zinterpretowane, a więc w pełni sensowne wyrażenia nazwowe języka empirycznego. Sensowność wszelkich innych wyrażeń nazwowych języka zależy od ich definiowalności przez nazwy całkowicie zinterpretowane.

Teorie sprawdzania logicznego empiryzmu odwołują się każdorazowo do konfrontowania twierdzeń wyprowadzanych ze sprawdzalnych hipotez ze zdaniami czysto empirycznymi. W następujących etapach przedstawić można ewolucję empirystycznego kryterium znaczenia poznawczego, inaczej to nazywając: ewolucję kryterium demarkacji na sfery: nauki i nie-nauki (sensu i non-sensu):

pierwszą wersję owego kryterium stanowił wymóg pełnej zasadniczej weryfikowalności. Funkcjonował on we wczesnej fazie rozwoju Koła Wiedeńskiego.

Zdanie ma znaczenie empiryczne wtedy i tylko wtedy, gdy nie jest analityczne i wynika logicznie z pewnego skończonego i niesprzecznego zbioru zdań obserwacyjnych.

Zarzuty wobec tego kryterium przedstawić można następująco: (1) wyklucza ono z obrębu nauki wszystkie zdania uniwersalne; (2) wyklucza on zdania zawierające zarazem kwantyfikator ogólny i szczegółowy, których również nie można wydedukować ze skończonego zbioru zdań obserwacyjnych; (3) do dowolnego zdania spełniającego ów wymóg, alternatywnie dołączyć można dowolne zdanie owego wymogu nie spełniające. Alternatywa tych zdań stanowiła będzie logiczną konsekwencję zdania spełniającego wymóg całkowitej weryfikowalności, co z kolei pozostanie w sprzeczności z wymogiem całkowitej weryfikowalności. (Swoistą wersją owego kryterium – przedstawiony tu w dogmatycznym falsyfikacjonizmie – stanowi wymóg pełnej zasadniczej falsyfikowalności.)

Sprawdzenie (weryfikacja lub falsyfikacja) zdania empirycznego sprowadza się do jednego z dwóch wymogów:

bezpośredniego sprawdzenia na podstawie aktu percepcji, albo;

sprawdzenia pośredniego, dokonującego się drogą bezpośredniego sprawdzenia zdań wyprowadzonych dedukcyjnie ze zdania protokolarnego oraz z innych już zweryfikowanych zdań.

Tak radykalnie sformułowana zasada weryfikacji twierdzeń naukowych, pod wpływem krytyki przeszła radykalną ewolucję w kierunku liberalizacji wymogu weryfikowalności zdań. Wymogu całkowitej weryfikacji oraz możliwości falsyfikacji nie spełniają jednak uniwersalne zdania (prawa) nauki (nie można zweryfikować zdania z kwantyfikacją ogólną, np. Wszyscy ludzie są śmiertelni, bowiem, w tym konkretnym przykładzie, nic nie wiemy o przypadkach przyszłych). Próby rozwiązania owej trudności szły w dwóch kierunkach:

Wersja Schlicka: Moritz Schlick uznaje prawa naukowe za instrukcje. Powołując się na Wittgensteina utrzymywał pogląd, że uniwersalne prawa nauki są zdaniami nie posiadającymi właściwości sądu, nie są zatem ani prawdziwe ani fałszywe, są jedynie instrukcjami, czyli regułami możliwego działania intelektualnego pokazującymi nam jak dochodzić do zdań – sądów. Tym oto sposobem Schlick próbuje uwolnić się od faktu niesprawdzalności całkowitej uniwersalnych praw nauki.

Wersja Carnapa: Rudolf Carnap warunek weryfikowalności poddał istotnej modyfikacji – w miejsce weryfikowalności zdań ogólnych żądał ich konfirmowalności. Próbując uprawomocnić teorię naukową porzucono pierwotnie akceptowaną postać reguł korespondencji – między zdaniami protokolarnymi a teorią, do której się odnosiły – zastępując je zdaniami redukcyjnymi.

Wprowadzenie zdań redukcyjnych pociągnęło za sobą konieczność rezygnacji z weryfikowalności jako kryterium sensowności i zastąpienia jej kryterium testowalności (konfirmowalności) jako kryterium sensowności poznawczej zdań teoretycznych.

Istotę kryterium testowalności wyrazić można za pomocą następującej tezy:

Sąd ma znaczenie (jest naukowy) jeśli można z niego wyprowadzić prawdziwe sądy.

Kolejny etap to kryterium Ayera, które przedstawić można następująco.

Zdanie S ma treść empiryczną, jeżeli z koniunkcji S i odpowiednich hipotez pomocniczych możliwe jest wywiedzenie zdań obserwacyjnych, które nie wynikają z samych hipotez pomocniczych.

Sam Ayer zauważył, że jego kryterium jest nazbyt szerokie, wyposaża bowiem w treść empiryczną dowolne zdanie. Przyjmijmy zdanie S mówiące: „Absolut jest doskonały”, a jako hipotezę pomocniczą zdanie: „Jeśli absolut jest doskonały, to to jabłko jest czerwone”. Na ich podstawie wydedukować można zdanie obserwacyjne: „To jabłko jest czerwone”.

Treść swego kryterium poddał Ayer modyfikacji, dopuszczając jako hipotezy pomocnicze jedynie zdania analityczne lub takie zdania empiryczne, które są niezależnie sprawdzalne. Jednakże ma tu zastosowanie zarzut drugi z kryterium falsyfikowalności.

Trudności jakie stanęły przed owymi kryteriami skłoniły Carla G. Hempla do następującej uwagi.

Myślę, że nie ma sensu poszukiwanie adekwatnego kryterium sprawdzalnościowego opartego na dedukcyjnych stosunkach do zdań obserwacyjnych.

Następny etap ewolucji kryterium demarkacji to analizy Hempla dotyczące przekładalnościowego kryterium znaczenia poznawczego, którego podstawy sformułował Carnap. Hempel formułuje je następująco.

Zdanie ma znaczenie poznawcze wtedy i tylko wtedy, gdy jest przekładalne na jakiś język empiryczny.

Jak łatwo zauważyć, kryterium to jest nazbyt wąskie, dopuszcza bowiem jako sensowne terminy obserwacyjne, pozbawionymi sensu czyniąc terminy dyspozycyjne. Dopiero drogą dopuszczenia do języka empirystycznego zdań (definicji) redukcyjnych, zasięg stosowalności owego kryterium można poszerzyć. Do wyjaśnienia pozostanie tu jeszcze problem konstruktów teoretycznych takich jak np. „potencjał grawitacyjny”, „pole elektryczne”, itp., których nagminnie używają współczesne teorie naukowe, a ani definicje ani zdania redukcyjne owych terminów nie są w stanie wprowadzić w oparciu o predykaty obserwacyjne.

Hempel proponuje następującą drogę przeformułowania empirystycznego kryterium znaczenia. Jego punkt wyjścia przedstawia się następująco:

W rzeczy samej treści wartościowego empirycznie zdania nie można, ogólnie biorąc, wyczerpująco wyrazić za pomocą jakiegokolwiek zbioru zdań obserwacyjnych.

W olbrzymim skrócie propozycję Hempla przedstawić można następująco. Empirystyczne kryterium znaczenia uznać należy za propozycję językową, która jako taka nie jest ani prawdziwa ani fałszywa, lecz adekwatna lub nie adekwatna. O adekwatnym kryterium znaczenia można mówić gdy spełnione są dwa warunki. Warunek pierwszy, eksplikacja musi być wystarczająco głęboką analizą powszechnie przyjętego znaczenia explicandum, analizą opierającą się na twierdzeniach o charakterze empirycznym. Warunek drugi, eksplikacja stanowić musi racjonalną rekonstrukcję eksplicandum – musi ona, posiłkując się logiką, stworzyć ogólny aparat pojęciowy pozwalający na spójne i precyzyjne przeformułowanie oraz na teoretyczną systematyzację kontekstów w jakich używane jest eksplicandum.

Probabilizm

Alternatywę dla tych stanowisk stanowić miał probabilizm, kierunek rozwijany przez grupę filozofów z Cambridge, którzy proponowali zastąpienie idei justyfikacji ideą prawdopodobieństwa. Pomimo że teorie naukowe są w równym stopniu nieudowodnialne, to można im przypisać różne stopnie prawdopodobieństwa – szacowanego za pomocą rachunku prawdopodobieństwa – ze względu na dostępny materiał empiryczny. Duże osiągnięcia na tym polu miał Rudolf Carnap. Istotę tego stanowiska przedstawia Lakatos następująco.

Naukowa uczciwość wymaga zatem mniej niż sądzono: polega ona na wypowiadaniu jedynie teorii wysoce prawdopodobnych; a nawet na określeniu po prostu, dla każdej teorii naukowej, dostępnych danych doświadczalnych i prawdopodobieństwa teorii w ich świetle.

Probabilizm, będący bardziej wyrafinowaną wersją justyfikacjonizmu, ideę weryfikacji próbuje zastąpić ideą prawdopodobieństwa, bazująca na indukcji eliminacyjnej i enumeracyjnej. Indukcja z przesłanek spostrzeżeniowych, które dotyczą indywidualnych i zaobserwowanych przypadków pozwala jako wniosek wyprowadzić następujące zdania:

zdanie o nowym przypadku, jeszcze nie zaobserwowanym, zwane przewidywaniem indukcyjnym lub wnioskowaniem przez analogię;

zdanie o wszystkich przypadkach pewnej klasy, zwane indukcją uogólniającą.

Obydwa powyższe zdania przedstawić można pod postacią następującego schematu wnioskowania, zwanego indukcją enumeracyjną, w którym S i P są nazwami własności obserwowalnych.

S1 jest P i S2 jest P i… Sn jest P

Nie zaobserwowano elementów klasy S nie mających własności P

Zatem:

(1) Sn+1 ma własność P (czyli: następny, jeszcze nie zaobserwowany element klasy S ma własność P),

lub

(2) Każde S jest P.

Celem przekształcenia powyższego schematu w schemat indukcji eliminacyjnej należy dołączyć do niego warunek głoszący, że przedmioty S1, … Sn są jak najbardziej różnorodne pod wieloma względami, celem eliminacji poprzez przesłanki jak najwięcej hipotez konkurencyjnych względem wniosku indukcyjnego.

Postępowanie badawcze ma cztery etapy. Etap pierwszy polega na zgromadzeniu obserwacji będących przesłankami o postaci „S jest P”. Etap drugi polega na postawieniu ogólnej hipotezy, której zasięg (czyli klasa S będących P) jest prowizorycznie oszacowany na podstawie dostępnych wyników obserwacji. Etap trzeci polega na sprawdzeniu uogólnienia poprzez nowe obserwacje, celem ostatecznego ustalenia zasięgu hipotezy drogą jej zawężenia lub rozszerzenia w perspektywie otrzymanych wyników. Etap czwarty, czyli uzasadnienie wniosku indukcyjnego, innymi słowy mówiąc nadanie mu określonego prawdopodobieństwa, przy założeniu, że jego prawdopodobieństwo ze względu na stwierdzone w przesłankach wyniki obserwacji jest większe od prawdopodobieństwa początkowego, przebiega dwojako, w zależności od tego czy mamy do czynienia z indukcją enumeracyjną czy eliminacyjną.

W przypadku indukcji enumeracyjnej prawdopodobieństwo wniosku jest tym większe, im większa jest ilość przeprowadzonych obserwacji. Zaś w przypadku indukcji eliminacyjnej prawdopodobieństwo wniosku zależy od ilości różnorodnych obserwacji, innymi słowy mówiąc, od ilości wyeliminowanych hipotez konkurencyjnych. Jeżeli prawdopodobieństwo wniosku okaże się duże (tzn. bliskie jedności) lub okaże się większe od prawdopodobieństwa negacji wniosku, to wniosek należy uznać. Jest to tzw. zasada racji dostatecznej w postępowaniu indukcyjnym.

Co oznacza użyte w powyższych zdaniach słowo „prawdopodobieństwo”? Traktowane jest ono tu jako uogólnienie pojęcia prawdy, teoria wnioskowania dedukcyjnego jest granicznym przypadkiem logiki indukcji, dedukcyjne operacje logiczne są granicznymi przypadkami operacji indukcyjnych. Ogólna zasada indukcji w ujęciu Rudolfa Carnapa, tzw. nierówność Carnapa, przedstawia się następująco.

p(G, e1… en) > p(G)

(Symbole czytamy kolejno: p – prawdopodobieństwo, G – generalizacja (uogólnienie) typu „Każde S jest P”, e 1… en – n kolejnych wyników obserwacji typu Si jest P.)

Przy akceptacji tezy, że indukcyjne uzasadnienie prawa lub teorii przez przesłanki polega na zwiększeniu jego prawdopodobieństwa początkowego, problemem uprawomocnienia indukcji nazywa się poszukiwanie takiej teorii prawdopodobieństwa indukcyjnego, w świetle której nierówność Carnapa nazwać można prawdziwą. Chodzi tu przede wszystkim o to, by wykazać, że istnieje nie prowadzący do sprzeczności sposób przyporządkowania sprawdzanym indukcyjnie hipotezom prawdopodobieństwa początkowego różnego od zera.

Należy w tym miejscu zauważyć, że nie istnieje metoda niesprzecznego przyporządkowywania początkowego prawdopodobieństwa różnego od zera wszystkim godnym uwagi hipotezom i teoriom. Zgodnie z teorią prawdopodobieństwa indukcyjnego prawdopodobieństwo początkowe wszelkich praw i teorii naukowych jest równe lub bliskie zeru dla każdego, dostatecznie dużego, uniwersum a zatem żadna ilość zgodnych z nim wyników obserwacji nie jest zdolna zwiększyć ich początkowego prawdopodobieństwa i zbliżyć go do jedności. Nierówność Carnapa nie jest zatem nigdy spełniona. Głównie za sprawą wysiłków K.R. Poppera okazało się jednak, że niezależnie od dostępnych świadectw empirycznych wszystkie teorie mają zerowe prawdopodobieństwo. Konsekwencją tego jest sąd, że wszystkie teorie są nie tylko w takim samym stopniu nieudowodnialne, ale i nieprawdopodobne.

Falsyfikacjonizm

Wraz ze zburzeniem utopii justyfikacjonizmu i probabilizmu zdaniem Lakatosa rozpoczyna się „właściwa” filozofia nauki – z naczelnymi dla niej hasłami: aktywistycznej koncepcji umysłu, względności wiedzy oraz popperowską rewolucją naukową – odzwierciedlana w stanowiskach naiwnego, a zwłaszcza wyrafinowanego falsyfikacjonizmu.

W przeciwieństwie do pasywistycznego stanowiska justyfikacjonizmu, wywodzący się od Kanta aktywizm utrzymuje, że nie można odczytać księgi przyrody bez jej uprzedniej interpretacji w świetle naszych oczekiwań i teorii.

Takie aktywistyczne stanowisko dzieli Lakatos na dwa odmienne: aktywizm konserwatywny (Kant) i aktywizm rewolucyjny. Ujęcie konserwatywne utrzymywało, że wszystkie nasze podstawowe oczekiwania są wrodzone, że za ich pomocą przekształcamy rzeczywistość w to, co zwiemy naszym światem – żyjemy i umieramy w więzieniu naszego schematu pojęciowego. Rewolucyjni aktywiści (Popper, Lakatos, Kuhn, Feyerabend) utrzymują, że schematy pojęciowe mogą być rozwijane, oraz zastępowane innymi, lepszymi schematami – to my wytwarzamy nasze więzienia i my możemy je burzyć.

Lakatos zauważa, że skutkiem prac Kanta i Poppera, jak i inspirowanych przez nich psychologów, okazało się, że taka empirystyczna psychoterapia pasywistyczna nie może się powieść, ponieważ nie istnieją wrażenia, które nie są przesiąknięte oczekiwaniami, czego konsekwencją jest to, że nie istnieje psychologiczne (naturalne) rozróżnienie na twierdzenia obserwacyjne i teoretyczne. Nie istnieje zatem również – a właściwie należałoby powiedzieć: jest pozbawione sensu – rozróżnienie pomiędzy nie udowodnionymi teoriami a dowiedzioną bazą empiryczną. Wszystkie zatem twierdzenia nauki mają charakter tymczasowy.

Dogmatyczny (naturalistyczny) falsyfikacjonizm

Dogmatyczny falsyfikacjonizm (charakterystyczny dla bardzo wczesnych poglądów Poppera, jeszcze sprzed ukazania się Logik der Forschung) przyjmuje za empirystami niepodważalną bazę empiryczną (stąd nazwa „dogmatyczny”), nie przenosząc owej własności na teorie naukowe, które uważa za przypuszczenia. Empiryczne kontrświadectwo jest instancją ostateczną rozstrzygającą o wartości teorii. Świadectwo doświadczenia nie jest w stanie udowodnić teorii, może ją jedynie odrzucić.

W ramach tego podejścia istnieją dwojakiego rodzaju zdania mające naukowy charakter (a) w bazie empirycznej, udowodnione zdania faktualne, (b) w teorii, zdania falsyfikowalne, czyli takie zdania, dla których istnieją logiczne, matematyczne lub eksperymentalne techniki pozwalające wyznaczyć zdania mogące je obalić.

Empiryczna baza teorii jest zbiorem jej potencjalnych falsyfikatorów. Rozwój nauki jest tu ścieraniem się teorii ze zdaniami obserwacyjnymi ujmującymi „nagie fakty”. Tylko tego typu zdania należą do nauki: wszystkie niefalsyfikowalne twierdzenia (nie będące tautologiami) mają charakter metafizyczny i jako takie wyłączone są z jej obrębu.

Dogmatyczny falsyfikacjonizm opiera się na zbyt ostrym kryterium demarkacji (uznającym za naukowe tylko te teorie, które mogą być obalone przez fakty, niepodważalną bazę empiryczną) a u jego podstaw tkwią dwa fałszywe założenia : (a) istnieje naturalne, psychologistyczne rozróżnienie między twierdzeniami teoretycznymi a obserwacyjnymi, (b) jeśli zdanie obserwacyjne spełnia psychologistyczne kryterium faktualności, to jest prawdziwe na podstawie doświadczenia (zostało dowiedzione przez fakty). Owe założenia wraz z tak radykalnym kryterium demarkacji pozostawiają poza obrębem nauki klasę teorii powszechnie uznawanych za naukowe, a mianowicie teorie, w których występuje warunek ceteris paribus, będący nota bene nie wyjątkiem lecz regułą. Polega on na tym, iż w określonej teorii przewiduje się brak jakiegoś jednostkowego zdarzenia tylko pod warunkiem, że żaden inny czynnik, mogący znajdować się gdziekolwiek, nie wywiera na owo zdarzenie jakiegoś wpływu. Wynika z tego zatem, że teoria nie stoi w sprzeczności z samymi zdaniami obserwacyjnymi, lecz z koniunkcją klauzuli ceteris paribus i zdań obserwacyjnych. Jednocześnie owej klauzuli niepodobna usunąć z bazy empirycznej, ponieważ może być zaobserwowane zajście o jakim orzeka się klauzula. Przy tak ostrym kryterium demarkacji nieobalalne są również wszelkie teorie probabilistyczne, ponieważ nie sposób ich obalić skończoną koniunkcją zdań obserwacyjnych.

Swoistą wersję kryterium demarkacji stanowi w tej wersji falsyfikacjonizmu wymóg pełnej zasadniczej falsyfikowalności:

Zdanie ma znaczenie empiryczne wtedy i tylko wtedy, gdy zasadniczo poddawalne jest pełnemu obaleniu przez skończoną ilość danych obserwacyjnych, czyli dokładniej: Wymóg pełnej zasadniczej falsyfikowalności: Zdanie ma znaczenie empiryczne wtedy i tylko wtedy, gdy jego negacja nie jest zdaniem analitycznym i wynika logicznie z pewnego skończonego niesprzecznego zbioru zdań obserwacyjnych.

Zarzuty przedstawić można następująco: (1) wymóg ten wyklucza wszystkie zdania czysto egzystencjalne, oraz wszystkie zdania wymagające mieszanej (tj. ogólnej i szczegółowej) kwantyfikacji; (2) z dwóch zdań, z których jedno jest falsyfikowalne, a drugie nie, koniunkcyjnie utworzyć można zdanie falsyfikowalne, które jednak nie będzie poddawało się wymogowi falsyfikowalności; (3) dla dowolnego (obserwacyjnego) predykatu dyspozycyjnego, jego kwantyfikacja ogólna będzie miała postać zdania sensownego, natomiast egzystencjalna, nie (ze względu na zarzut pierwszy).

Naiwny (hipotetyczny) falsyfikacjonizm

Dla tej wersji falsyfikacjonizmu najbardziej reprezentatywnym jest stanowisko Karla R. Poppera, niekiedy nazywane hipotetyzmem – stąd nazwa „hipotetyczny falsyfikacjonizm”. Filozofia nauki Alberta Einsteina jest podobna do tej wersji falsyfikacjonizmu. Zapewne jest to wynikiem ożywionej korespondencji Einsteina z Popperem. Einstein nigdy nie określał siebie mianem krytycznego racjonalisty.

Falsyfikacjonizm Poppera wykazał tymczasowy charakter twierdzeń naukowych. Wykazał również, iż tymczasowe twierdzenia nauki sprawdzane są przy pomocy zdań o konwencjonalnym charakterze. Jedynym co pozostawało pewne i niezmienne to metoda: krytyczny racjonalizm – logika odkrycia naukowego, gwarantująca racjonalność postępowania badawczego. W perspektywie jego metodologii trudno uznać za racjonalną tą lub inną teorię, ponieważ podstawa uprawomocnienia jest zawsze nierozerwalnie związana z arbitralnie przyjętą empiryczną „bazą”. Można jedynie mówić o racjonalności samego rozwoju nauki dokonując zestawienia następujących po sobie teorii, oraz porównując je pod względem ich podobieństwa do prawdy. Jego teoria nauki jest diachroniczna, dotyczy bowiem głównie wzajemnego stosunku następujących po sobie teorii.

Wpływowi tej wersji falsyfikacjonizmu uległo wielu filozofów nauki i zaowodowych uczonych. Ten silny wpływ Poppera przez analogię do tytułu I tomu jego Open Society (The Spell of Plato – Urok Platona), nazwać można „urokiem Poppera”. Na czym on polega? Filozofia nauki Poppera jest względnie prostym zespołem reguł postępowania, jakim podporządkować się musi uczony, o ile chce się przyczynić do wzrostu wiedzy. (Inną sprawą jest faktyczna stosowalność tych reguł). Nie są to konkretne reguły dotyczące zachowania się w konkretnych sytuacjach, tylko pewnego rodzaju metadyrektywy, które ukierunkowują badania (mogą one być również nazwane „kryteriami naukowej racjonalności”). Można je wyrazić tak. Bądź krytyczny – dla sformułowanej przez siebie teorii poszukuj kontrprzypadków, a nie potwierdzeń, które nie dość, że są łatwiejsze do znalezienia, to jeszcze uśpią twoją czujność. Duża ilość potwierdzających przypadków powodowała będzie, że niewielka ilość kontrprzypadków (a może tylko jeden lub dwa), z jakimi się zetkniesz, nie będzie przez ciebie brana pod uwagę. A to kontrprzypadki są miejscami, w których twoja teoria zderza się z rzeczywistością. To one informują cię, że popełniłeś błąd. Dlatego zawsze poszukuj dla teorii kontrświadectw i dopiero niepowodzenia w ich poszukiwaniu mogą cię tymczasowo upewnić, że twoja teoria okazała hart, czyli, że tymczasowo może zostać przyjęta ze względu na negatywny wynik eksperymentu falsyfikującego. Masz jednak obowiązek oczekiwać, że twoja aktualna teoria i tak zostanie zastąpiona inną, lepszą teorią. Lepszą, czyli w wyższym stopniu falsyfikowaną, czyli taką, która będzie od twojej bardziej ogólna i przejdzie te testy, których twoja przejść nie zdołała. To wszystko, czego oczekiwać możesz od każdej teorii, bowiem krytyczne sprawdzanie teorii nie ma naturalnego końca, albowiem końca takiego nie ma rozwój nauki.

Zasadnicze idee tej wersji falsyfikacjonizmu przedstawić można w następujący sposób. Podstawowym narzędziem falsyfikacjonizmu Poppera są twierdzenia bazowe. Wnioskowanie falsyfikujące przebiega według schematu modus tollens – [(p›q)?~q]›~p. Do jego wykorzystania potrzebny jest szczególny rodzaj twierdzeń (zdań), których używa się jako przesłanki. Twierdzenia te należą do tzw. „bazy empirycznej” i nazwane zostały przez Poppera „twierdzeniami bazowymi” (basic statements, basic propositions, test statements).

Posiadając tego typu twierdzenia możemy daną teorię nazwać empiryczną, wtedy gdy dokonuje jednoznacznego podziału wszystkich możliwych twierdzeń bazowych w danym języku na dwie podklasy: klasę twierdzeń sprzecznych z daną teorią (wyrażających te zdarzenia, których teoria zakazuje), nazwaną klasą potencjalnych falsyfikatorów, oraz podklasę twierdzeń z daną teorią niesprzecznych.

Konwencjonalizm polega tu na tym, że to my decydujemy, które twierdzenia należy przyjąć jako bazowe. W odróżnieniu od klasycznego konwencjonalizmu Poincarégo nasza decyzja dotyczy jedynie twierdzeń bazowych a nie twierdzeń uniwersalnych. Metodologia popperowska wręcz zakazuje aby o wyborze pomiędzy teoriami miała decydować swobodna decyzja uczonego, ponieważ przy takim stanie rzeczy o akceptacji teorii zaczęłyby decydować pozanaukowe czynniki, a nie przeprowadzone testy. Decyzje dotyczące twierdzeń bazowych uzależnione są od pytań formułowanych na gruncie teorii, którą akceptujemy. Ona to sugeruje nam klasy twierdzeń, które my wybieramy jako bazowe. Na decyzję wpływa również nasze odczucie przekonania, które co prawda nie jest uzasadnieniem, ale można powiedzieć, że jest jego warunkiem wstępnym. Widać tu pewnego rodzaju sprzężenie zwrotne pomiędzy teorią a twierdzeniami bazowymi. O przyjęciu bądź odrzuceniu danej teorii czy też pewnej części decydują twierdzenia bazowe, których wybór uzależniony jest od owej teorii. Sam akt wyboru twierdzeń bazowych jest już częścią zastosowania danego systemu teoretycznego.

Reguły akceptacji twierdzeń bazowych formułuje Popper następująco. (1) Nie są one nieodwoływalne, jeśli zajdzie potrzeba, każde z nich poddać można dalszym testom, jako probierza używając innych twierdzeń bazowych. Regressus ad infinitum uniknąć w tym przypadku możemy wprowadzając postulat potencjalnej sprawdzalności każdego twierdzenia bazowego – każde z nich musi poddawać się sprawdzeniu a nie faktycznie zostać sprawdzone, sprawdzanie przerywane jest w momencie uzyskania zgody badaczy co do akceptacji danego twierdzenia. (2) Jeśli uchylamy się od sprawdzenia twierdzeń bazowych, stają się one dogmatami, wymykają się spod kontroli i przestają pełnić swą funkcję probierza rzetelności i adekwatności naszych teorii. (3) Nie należy przyjmować twierdzeń bazowych nie powiązanych logicznie z teorią, przyjmujemy je w toku sprawdzania teorii, traktując je jako odpowiedzi na pytania stawiane przez teorię. Nie powiązane z teorią, pojedyncze twierdzenia bazowe nie mogą stanowić przypadków falsyfikujących. Lecz każde z nich jest elementem nieskończonej klasy wszystkich wewnętrznie niesprzecznych zdań o określonej formie logicznej, w jej ramach znajduje się wiele wzajemnie ze sobą sprzecznych zdań. Ową nieskończoną klasę nazywa Popper systemem twierdzeń bazowych. (4) Aby zdanie o faktach uznać za twierdzenie bazowe, najpierw musimy mieć odpowiednią teorię, do której dane twierdzenie bazowe możemy odnieść. (5) Twierdzenia bazowe podobnie jak nasze obserwacje są interpretacjami w świetle teorii i dlatego należy szukać dla nich kontrprzypadków, a nie weryfikacji.

Twierdzenia bazowe pełnią dwie zasadnicze funkcje: są one warunkami początkowymi oraz twierdzeniami testowymi, stwierdzającymi obiektywny stan rzeczy (zajście zdarzenia). Nie opierają się one na sądach o doznaniach, są intersubiektywnie sprawdzalne. Są uzasadniane jedynie w ramach teorii, w której funkcjonują, uzasadniane są więc przy pomocy zdań a nie przy pomocy doznań. W wyborze twierdzeń bazowych nie istnieje całkowita arbitralność, wprawdzie to my decydujemy które zdania uznamy za twierdzenia bazowe, ale to teoria sugeruje nam klasy zdań, które mogą być uznane jako twierdzenia bazowe. Dzięki nadaniu twierdzeniom bazowym konkretnej formy i przyjęciu warunku, że falsyfikujące twierdzenie bazowe musi mieć taką postać, by było sprzeczne ze zdaniem o poszczególnych przypadkach danego prawa czy hipotezy, dokładnie wiemy, które twierdzenia włączyć możemy do „bazy”. Przyjmując konkretną formę dla twierdzeń bazowych przyjmujemy również konkretne kryterium demarkacji: jeśli dla danej teorii nie istnieje możliwość podania sprzecznego z nią twierdzenia bazowego, wtedy teoria ma nienaukowy charakter.

Pojęcie stopni sprawdzalności teorii naukowej jest ważnym pojęciem metodologii popperowskiej, bowiem zastosować go można do:

problemu prostoty teorii naukowej. Teoria tym będzie prostsza w im wyższym stopniu będzie sprawdzalna;

problemu bliskości do prawdy (verisimiltude). Teoria tym bliższa będzie prawdzie w im wyższym stopniu będzie sprawdzalna.

Twierdzenia bazowe pełnią istotną rolę w analizach stopni sprawdzalności (falsyfikowalności) teorii naukowych. System twierdzeń bazowych zobrazować można za pomocą koła, gdzie możliwe zdarzenia reprezentowane są przez jego wycinki. Im dana teoria wyklucza większy wycinek, tym więcej potencjalnych falsyfikatorów może pozostawać z nią w sprzeczności. Gdy teoria jest niesprzeczna w kole musi pozostać pewien wycinek, który nie jest przez nią wykluczany. Mając dwie konkurujące ze sobą teorie, ta z nich jest w wyższym stopniu falsyfikowalna, która wyklucza więcej zdarzeń. Klasa dozwolonych twierdzeń bazowych lepiej falsyfikowalnej teorii jest mniejsza, niż klasa twierdzeń teorii słabiej falsyfikowalnej. Treść empiryczna, czyli suma doświadczalnych informacji niesionych przez teorię wzrasta wraz z jej stopniem falsyfikowalności, stanowi ją klasa potencjalnych falsyfikatorów. Lepiej falsyfikowalna teoria pozostawia mniejszy wycinek twierdzeń dopuszczalnych, tym samym wyklucza więcej możliwych zdarzeń. Zawartość empiryczna teorii równa jest klasie tych twierdzeń bazowych, które zaprzeczają teorii. Zdaniem Poppera nauki empiryczne w swym rozwoju dążą do takiego momentu, gdy sformułowane zostaną teorie dopuszczające tak mało zdarzeń, że każde wykluczenie następnego powodowało będzie falsyfikację teorii.

Potwierdzenie (koroboracja) to w ramach metodologii Poppera, zgodność teorii z przyjętymi w jej ramach twierdzeniami bazowymi. Nieweryfikowalność teorii naukowych polega na niemożliwości ich całkowitego potwierdzenia, lecz część przewidywań powstałych na gruncie teorii może zostać potwierdzona, czyli jak mówi Popper, okazać hart ze względu na dotychczasowy negatywny wynik eksperymentu falsyfikującego. Potwierdzalność (corroborability) utożsamia Popper ze stopniem ze stopniem sprawdzalności i epistemologicznym problemem prostoty. Hipoteza lepiej falsyfikowalna (prostsza) jest jednocześnie w wyższym stopniu potwierdzalną. Stopień potwierdzenia jest dla niego miarą surowości testów, którym poddana została teoria. Stopień ten nie może być utożsamiony z prawdopodobieństwem, należy go określać za pomocą surowych testów, którym dana hipoteza została poddana. Nie wolno go określać liczbą potwierdzających przypadków.

Prawda odgrywa dla Poppera rolę idei regulatywnej. Wszelkie próby sprawdzenia dowolnej teorii (naukowej i metafizycznej) służą, poprzez eliminację fałszu, odnalezieniu prawdy. Jednakże jeśli nawet natrafimy na prawdziwą teorię, będziemy z reguły zgadywali i możemy się nigdy nie dowiedzieć, że jest ona prawdziwa. Poszukujący prawdy badacz powinien również szukać fałszu, z tej przyczyny, że stwierdzając fałszywość jakiegoś zdania, automatycznie stwierdza prawdziwość jego negacji, co pozwala mu na sformułowanie nowej hipotezy.

Prawda to dla Poppera zgodność z faktami, tylko takie jej pojmowanie umożliwia racjonalną krytykę. Pojęcie „prawda” proponuje on, idąc śladami Tarskiego, traktować jako synonim pojęcia „korespondencja z faktami”, proponuje również określić, co kryje się pod znaczeniem tego drugiego terminu. Status prawdy w obiektywnym sensie (jako korespondencji z faktami) oraz jej rolę jako idei regulatywnej ukazuje Popper za pomocą następującej metafory. Prawda jest szczytem górskim, zanurzonym w chmurach. Alpinista może nie mieć problemów w dostaniu się nań, lecz może nie wiedzieć kiedy się tam dostał, ponieważ może nie rozróżnić, znajdując się w chmurach, pomiędzy wierzchołkiem a jakimś pobocznym szczytem. Fakt ten jednakże nie wpływa na obiektywne istnienie wierzchołka, autentyczna idea błędu, lub wątpienia pociąga za sobą ideę prawdy obiektywnej, której nigdy możemy nie osiągnąć.

Tylko klasyczna teoria prawdy na stwierdzenie, że teoria a może być prawdziwa nawet wtedy, jeśli nikt w nią nie wierzy, czy nie jest przekonany o jej prawdziwości, lub wtedy, gdy nie mamy żadnych powodów aby ją zaakceptować. I odwrotnie, tylko na jej gruncie przypuszczać można, że teoria a może być fałszywa, choć mamy dobre powody aby ją akceptować, wierzyć w nią, czy korzystać z niej jako z wielce użytecznego narzędzia. Subiektywistyczne podejście do prawdy łączy Popper z justyfikacjonizmem, używając względem niego zamiennych nazw „pozytywizm” lub „weryfikacjonizm”, przeciwstawiając mu swoje własne stanowisko, które nazywa „negatywizmem”.

Tylko w ramach stanowiska negatywistycznego, idea prawdy pozwala sensownie mówić błędach i krytycyzmie, przez co umożliwia racjonalną dyskusję – dyskusję krytyczną mającą na celu poszukiwanie błędów, celem ich eliminacji. Celem eliminacji błędów jest przybliżenie się do prawdy, takie formułowanie teorii naukowych, że teoria nowa będzie musiała odnieść nie tylko tam sukces, gdzie powiodło się jej poprzedniczce, ale również tam, gdzie poprzedniczka zawiodła, będzie ona wtedy w każdym przypadku bardziej udana i dlatego lepsza od starej teorii. Tym sposobem, konkluduje w innym miejscu Popper, idea błędu oraz omylności, zawiera w sobie ideę prawdy obiektywnej jako standardu, do którego możemy nie dotrzeć. Jednakże prawda nie jest jedynym celem nauki, tym czego poszukuje negatywista jest prawda interesująca – prawda do której ciężko dotrzeć, ponieważ stanowią ją odpowiedzi na nasze problemy. Jest ona relatywna względem nich, zależy od siły wyjaśniającej naszych teorii, a tym samym od ich zawartości i logicznego nieprawdopodobieństwa. Prawda i przybliżanie się do prawdy nie stanowią absolutnych standardów dla oceny teorii. Możemy się nimi posługiwać jedynie w ramach krytycznej dyskusji, odrzucając teorie jako nieprawdziwe lub dalsze od prawdy. Jednakże, przestrzega Popper, nie ma żadnej gwarancji, że uda nam się posunąć w kierunku lepszych teorii. Metoda krytyczna, podobnie jak każda inna metoda, nie pozwala stwierdzić, eliminując słabsze teorie (choć badane teorie poddane zostały najsurowszym, na jakie było nas stać, testom), która z nich jest prawdziwa. Ale, w przeciwieństwie do innych metod, choć niekonkluzywna, jest stosowalna.

Przypisanie danemu twierdzeniu jakiegoś stopnia podobieństwa do prawdy nie oznacza, zdaniem Poppera, posługiwania się żadną logiką wielowartościową, wszystko to odbywa się na gruncie logiki dwuwartościowej i stanowi kontynuację jego koncepcji metody naukowej. Idea potwierdzalności (koroboracji) jest metodologicznym odpowiednikiem metalogicznej idei zbliżania się do prawdy.

Nie istnieją żadne powody, stwierdza Popper, dla których mielibyśmy nie mówić, że jedna teoria lepiej koresponduje z faktami od drugiej. Pociąga to za sobą pytanie o istnienie stopni prawdy, tj. pytanie o to, czy możemy sensownie mówić o dwóch teoriach, wcześniejszej t1 i późniejszej t2, tak, że ta druga ściślej zbliżyła się do prawdy od pierwszej.

Na rzecz pozytywnej odpowiedzi na to pytanie formułuje on listę sześciu warunków, z których spełnienie choć jednego, świadczyć ma o zbliżeniu się do prawdy: (1) t2 formułuje bardziej precyzyjne twierdzenia od t1, a te bardziej precyzyjne twierdzenia stawiają czoła bardziej precyzyjnym testom. (2) t2 uwzględnia i wyjaśnia więcej faktów niż t1. (3) t2 opisuje lub wyjaśnia fakty bardziej szczegółowo niż t1. (4) t2 przeszła testy, których t1 przejść nie zdołała. (5) t2 zasugerowała nowe testy eksperymentalne – nie brane pod uwagę zanim została sformułowana, testy nie sugerowane przez t1 i być może nie dające się w jej ramach przeprowadzić – i przeszła przez nie. (6) t2 zunifikowała lub połączyła różne dotychczas nie powiązane problemy.

Pod pojęciem wzrostu wiedzy (growth of knowledge) rozumie Popper możliwość dokonywania odrzuceń teorii naukowych celem zastępowania ich teoriami lepszymi. Określa go następująco.

Wszelki wzrost wiedzy polega na doskonaleniu istniejącej wiedzy, którą zamieniamy w nadziei zbliżenia się ku prawdzie.

Jest on esencjalnym elementem racjonalnego i empirycznego charakteru wiedzy naukowej, przebiega drogą prób i błędów. Metoda prób i błędów jest metodą eliminacji fałszywych teorii twierdzeniami obserwacyjnymi, a uzasadnieniem tego jest czysto logiczna relacja dedukowalności, pozwalająca na stwierdzenie fałszywości twierdzeń uniwersalnych, o ile zaakceptujemy określone twierdzenia szczegółowe. Trzy są podstawowe zagrożenia dla wzrostu wiedzy: utrata wyobraźni, stanowiąca niekiedy konsekwencję utraty autentycznego zainteresowania danym problemem, błędna wiara w formalizację i precyzję, oraz autorytarianizm.

Podstawowym kryterium postępu we wzroście wiedzy jest kryterium relatywnej potencjalnej satysfakcjonalności (potencjalnej postępowości). Jego potencjalność polega na tym, że nawet zanim teoria przeszła test empiryczny jesteśmy w stanie powiedzieć czy będzie ona ulepszeniem swojej poprzedniczki, o ile przejdzie określone testy. Wiemy zatem jak powinna wyglądać lepsza teoria naukowa. Kryterium to dokonuje preferencji takiej teorii, która mówi więcej – zawiera większą ilość empirycznej informacji (ma większą zawartość prawdziwościową), jest logicznie silniejsza, ma większą siłę eksplanacyjną i przewidującą, oraz może być surowiej przetestowana.

Obraz nauki jako przechodzenia od teorii do teorii nie jest do końca adekwatny. Nauka jest raczej przechodzeniem od problemu do problemu, niż przechodzeniem od teorii do teorii. Przedstawia to schemat rozwoju wiedzy również jego autorstwa:

p1›TP›EB›P2

(Symbole czytamy następująco: P1 – początkowy problem, TP – teoria próbna, EB – eliminacja błędu (próba falsyfikacji, P2 – kolejny problem).

Metodologia Poppera opierająca się na fundamentalnej dla niej idei falsyfikacjonizmu jest metodologią normatywną. Jego spojrzenie na naukę ma dialektyczny charakter. Jest ona permanentnym obalaniem coraz to nowych hipotez. Rozpoczynając od interesującego nas problemu P1, formułujemy hipotezę (conjecture – TP, w schemacie Poppera), która jest tezą, następuje jej odrzucenie (refutation – EB, w schemacie Poppera), czyli antyteza, następnie przychodzi nowa hipoteza (P2) jako synteza. Odrzucenie hipotezy to nic innego jak jej falsyfikacja. Jej możliwość miała być gwarantem racjonalności postępowania badawczego: mamy pewną metodę, dzięki której wnioskować możemy, że postępowanie nasze jest racjonalne.

Nauka rozpoczyna się od jakiegoś problemu nie zaś od obserwacji. Właściwie sformułowanym pytaniem nie jest pytanie o przejście od obserwacji do teorii, lecz pytanie o przejście od sytuacji problemowej do teorii, pozwalającej na wyjaśnienie tworzących problem obserwacji. Podstawowym zadaniem naukowca jest więc rozwiązanie problemu drogą skonstruowania teorii ten problem rozwiązującej. To nie od obserwacji wychodzimy lecz od teorii, które popadły w tarapaty. Wzrost wiedzy jest przechodzeniem od starych do nowych problemów drogą hipotez i obaleń. Podczas dyskusji nad jakimś problemem stykamy się z tzw. wiedzą tła (background knowledge), którą stanowią tymczasowo niekwestionowalne (unproblematic), przyjęte twierdzenia. Każda poszczególna część owej niekwestionowalnej wiedzy może zostać później zakwestionowana, zwłaszcza wtedy, gdy przewidujemy, że jej bezkrytyczna akceptacja może być odpowiedzialna za niektóre nasze trudności. Nie istnieje jednak możliwość, w trakcie krytycznej debaty, zakwestionowania jej w całości, czyli rozpoczęcie od początku, które przyczynić się jedynie może do uniemożliwienia jakiejkolwiek debaty. Falsyfikacjonista zdaje sobie sprawę, że nawet tymczasowa akceptacja wiedzy tła jest ryzykowna, wie również, iż nigdy nie będziemy mięli pewności czy zakwestionowaliśmy właściwą cząstkę. Nie stanowi to jednak dla niego jakiegoś fundamentalnego problemu, wszystko bowiem jest otwarte na krytykę. Pierwszym problemem jaki napotykamy, początkującym wszystkie inne, jest nasza wiedza wrodzona, nasze wrodzone oczekiwania, stanowiące zaczątek wiedzy hipotetycznej, które w pewnym momencie nas zawodzą i zmuszają nas do działań metodą prób i błędów.

Swoją teorię nazywa Popper darwinowską teorią rozwoju wiedzy. Stwierdza, że rozwój ludzkiej wiedzy jest rezultatem procesu przypominającego darwinowski dobór naturalny w tym sensie, iż stanowi ona naturalny dobór hipotez – na naszą wiedzę składają się te hipotezy, które wykazały swoje przystosowanie, przeżywszy w konkurencyjnej walce hipotezy w mniejszym stopniu przystosowane. W przeciwieństwie jednak do wiedzy zwierząt i wiedzy przednaukowej rozwijającej się głównie drogą eliminacji jednostek wyznających owe nieprzystosowane hipotezy, naukowa krytyka unicestwia zamiast nas nasze hipotezy.

Kryterium demarkacji, zwane przez niego również kryterium sprawdzalności lub falsyfikowalności lub odrzucalności, funkcjonuje w tej wersji falsyfikacjonizmu Poppera w dwóch znaczeniach: (a) dokonania rozróżnienia pomiędzy autentycznie empiryczną metodą a metodą pseudoempiryczną; oraz (b) dokonania rozróżnienia pomiędzy nauką a metafizyką. Problem jaki chce on rozwiązać nie jest, jak sam stwierdza, ani problemem znaczenia, ani problemem akceptowalności czy prawdziwości teorii. Jest to problem przeprowadzenia granicy pomiędzy twierdzeniami nauk empirycznych i wszystkimi innymi twierdzeniami, bez względu na to czy mają one charakter religijny, metafizyczny, czy po prostu pseudonaukowy.

Istotą jego kryterium demarkacji jest stwierdzenie, że celem uznania za naukowe poszczególnego twierdzenia lub systemu takich twierdzeń, muszą one być zdolne do pozostawania w sprzeczności z możliwymi do przeprowadzenia, lub dającymi się pomyśleć, obserwacjami. Stwierdza dalej, ż‚ kryterium tego nie da się jednoznacznie przeprowadzić, jest ono stopniowalne. Istnieją dobrze testowalne teorie, teorie trudno testowalne oraz teorie nietestowalne, nie stanowiące przedmiotu zainteresowania naukowców. Wynika z tego jasno, że twierdzenia metafizyki kryterium tego nie są w stanie spełnić. Daleki jest on jednak od stwierdzenia, że twierdzenia tej ostatniej pozbawione są sensu. Metafizyka, stwierdza, nie musi być pozbawiona sensu, nawet jeśli nie jest nauką. Jest ona, podobnie do mitu, źródłem większości teorii naukowych. Nauka zaczyna od mitów i metafizyki, jak również od krytycyzmu względem nich. Śmiałe idee, nieuzasadnione antycypacje i spekulacja myślowa są zatem podstawowymi środkami interpretacji natury. Przykładem może być system kopernikański, zainspirowany neoplatońską ideą światła Słońca, które musi zajmować centralne miejsce z powodu swej szlachetności. Metafizyka jest zatem niezbędnym, wstępnym składnikiem poznania naukowego.

Obok twierdzeń metafizyki istnieją jeszcze inne grupy twierdzeń nie spełniające popperowskiego kryterium demarkacji, pomimo iż oparte są na obserwacji. Takie podejście nazywa Popper, „pseudoempirycznym”, ponieważ odwołuje się ono do obserwacji i eksperymentu, a mimo to nie spełnia naukowych standardów. Przykładami mogą tu być teorie Marksa, Freuda, Adlera, astrologia, czy socjologia wiedzy. Siłą tych teorii, powodującą ich niesłychaną popularność, była właśnie ich moc eksplanacyjna. Wszystkie one podają znaczną ilość empirycznych dowodów opartych na obserwacji, wydają się one być zdolnymi do wyjaśnienia wszystkiego, co miało miejsce w dziedzinach do jakich się odnosiły. Ich szkodliwość polega na tym, że nie dopuszczając względem siebie myśli krytycznej niszczą one podstawy wszelkiej racjonalnej dyskusji, prowadząc wprost do irracjonalizmu, a przy tym są metodami łatwymi w zastosowaniu i prowadzącymi do szybkiego sukcesu badawczego, potwierdzenia tego, co wcześniej stwierdziły.

Stanowisko hipotetycznego (naiwnego) falsyfikacjonizmu Poppera jest pewną odmianą konwencjonalizmu, utrzymującą, że istnieją w nauce twierdzenia rozstrzygane drogą umowy, lecz nie są one prawami uniwersalnymi, a zdaniami jednostkowymi.

Konwencjonalizm Poppera zabrania immunizowania teorii naukowych, czyli: stosowania hipotez ad hoc, modyfikowania definicji ostensywnych w momencie ich niezgodności z teorią lub eksperymentem, wątpienia w rzetelność eksperymentatora lub teoretyka, gdy jego wyniki są niezgodne z naszymi, odrzucania wyników badań z powodów wyżej wspomnianych.

Konwencjonalistyczne stanowisko Poppera dotyczy wprowadzenia pięciu rodzajów decyzji znacznie łagodzących stanowisko dogmatyczne.

1. W ramach tego podejścia decyzją badacza wyróżnia się, które zdania jednostkowe uznać należy za twierdzenia bazowe.

2. Oddziela się zbiór akceptowanych twierdzeń bazowych od pozostałych zdań nauki, których nie akceptuje się, lecz udowadnia.

Te dwie decyzje odpowiadają dwóm założeniom dogmatycznego falsyfikacjonizmu. W jego wersji hipotetycznej przyjmuje się, że wszystkie fakty interpretowane są w świetle jakiejś teorii, nie zawsze uświadamianej sobie i nie zawsze niezawodnej. Uczony testując teorię T włącza wszystkie teorie T' interpretujące dane doświadczenia do niekwestionowanej (oczywiście tylko w momencie sprawdzania teorii T) wiedzy towarzyszącej. Celem uniknięcia błędów, mogących mieć miejsce pod wpływem owej niekwestionowanej wiedzy postuluje się powtarzanie eksperymentu przez niezależnego eksperymentatora. W przypadku osiągnięcia pozytywnego wyniku eksperymentu falsyfikującego, jego wynik akceptowany jest o ile hipoteza falsyfikująca jest dobrze potwierdzona.

Hipotetyczny falsyfikacjonista odróżnia odrzucenie od obalenia, zdając sobie jednocześnie sprawę z tego, że możemy wyeliminować teorię prawdziwą, a przyjąć fałszywą. Musimy tak postępować jeśli nasze działania mają być racjonalne – musimy znaleźć sposób eliminowania tych teorii, które nie stawiają czoła testom. Dlatego też proponuje nowe kryterium demarkacji, o naukowym charakterze teorii świadczy jej baza empiryczna, nie kryjąca teraz w sobie nic absolutnego. Przyjęcie określonych twierdzeń obserwacyjnych stanowi część zastosowania systemu teoretycznego. Umożliwia to przyjęcie trzeciego typu decyzji.

3. Umożliwia on odrzucenie teorii probabilistycznej lub zaliczenia jej do nauki. Podaje się pułap odchyleń, po przekroczeniu którego świadectwa statystyczne są niezgodne z teorią.

Owe trzy rodzaje decyzji nie są w stanie sfalsyfikować teorii naukowych z klauzulą ceteris paribus. Skończona liczba eksperymentów tego nie osiągnie, sprawdzanie zaś dotyczy zawsze koniunkcji teorii i klauzuli. Przy negatywnym wyniku testu nie wiadomo, który z członów koniunkcji należy odrzucić. W związku z tym przyjmuje się czwarty rodzaj decyzji.

4. Klauzulę ceteris paribus przenosi się do niekwestionowanej wiedzy towarzyszącej, jednakże tylko wtedy, gdy pewnym jest, że klauzula jest dobrze potwierdzona.

5. Ostatni typ decyzji polega na eliminowaniu teorii, które z powodu swej logicznej formy nie mogą posiadać nawet potencjalnych falsyfikatorów. Chodzi tu głównie o twierdzenia mające postać zdań egzystencjalnych, w których kwantyfikator nie jest ograniczony do określonego wycinka czasoprzestrzeni.

Zasadnicze trudności stojące przed tą wersją falsyfikacjonizmu są następujące. Decyzje, jakie podejmowane są w ramach tego podejścia, z jednej strony są niezbędne by uchronić się przed zarzutem dogmatyzmu, z drugiej zaś strony mogą nas zaprowadzić na kompletne manowce. Nie dysponujemy bowiem żadnymi środkami pozwalającymi na stwierdzenie, czy podobieństwo do prawdy naszych teorii wzrasta czy maleje. Trudno w jego ramach wytłumaczyć fakt, że teoretycy często zmieniali werdykty doświadczalne na przeciwne. Falsyfikacja teorii z klauzulą ceteris paribus również jest tu trudna do wyjaśnienia, czy wręcz irracjonalna, na gruncie tego podejścia. Dogmatyczne i naiwne stanowisko uznają, że sprawdzenie teorii jest jej konfrontacją z wynikami doświadczenia oraz, że jedynym interesującym rezultatem takiego sprawdzianu jest konkluzywna falsyfikacja. Zaś zgodnie z historią nauki, sprawdziany tego typu są co najmniej trójstronną konfrontacją pomiędzy konkurującymi teoriami a doświadczeniem, oraz, nie konkluzywne falsyfikacje, lecz potwierdzenia są często wynikiem prób falsyfikacji. Stąd nazwa „naiwny falsyfikacjonizm”.

Wyrafinowany falsyfikacjonizm

Wersja Lakatosa

Stanowisko wyrafinowanego falsyfikacjonizmu jest próbą zredukowania konwencjonalnych elementów wersji naiwnej, celem dostarczenia nowych racjonalnych uzasadnień falsyfikacji, a dzięki temu ocalenie metodologii i idei postępu naukowego.

Zasadnicza różnica pomiędzy obydwoma rodzajami falsyfikacjonizmu tkwi w podejściu do:(a) reguł akceptacji (kryterium demarkacji); (b) reguł falsyfikacji (eliminacji); (c) przedmiotu badań metodologii nauk – dla Poppera bada ona pojedyncze teorie, dla Lakatosa badania nad nauką dotyczyć powinny właśnie ciągów (serii) teorii.

Wyrafinowany falsyfikacjonizm w ujęciu Lakatosa zmienia problem jak oceniać teorie, na problem – jak oceniać serie teorii. Model wyjaśniania staje się teraz nie monoteoretyczny a pluralistyczny: naukowość orzeka się nie o pojedynczej teorii, lecz o grupie teorii. Ciąg taki nie jest dowolnym zbiorem poszczególnych teorii, lecz stanowi określoną całość tworzącą się stopniowo w czasie zgodnie z określonymi zasadami. Seię teorii określa Lakatos następująco.

Weźmy serię teorii, T1, T2, T3, …, w której każda kolejna teoria powstaje poprzez dodanie pomocniczych klauzul do (lub poprzez semantyczną reinterpretację) jej poprzedniczki, w celu przyswojenia pewnej anomalii, a każda ma treść empiryczną co najmniej równą nieobalonej treści teorii ją poprzedzającej. Powiedzmy, że taka seria teorii jest teoretycznie postępowa (lub stanowi teoretycznie postępowe przesunięcie problemowe), jeśli każda nowa teoria ma pewną nadwyżkę treści empirycznej względem swej poprzedniczki, to znaczy, jeśli przewiduje ona pewne nowe, wcześniej nieoczekiwane fakty. Powiedzmy, że taka teoretycznie postępowa seria teorii jest również empirycznie postępowa (lub stanowi empirycznie postępowe przesunięcie problemowe), jeśli część tej nadwyżki treści empirycznej zostaje również potwierdzona, to znaczy, jeśli każda nowa teoria wiedzie nas do rzeczywistego odkrycia pewnego nowego faktu. A wreszcie, nazwijmy przesunięcie problemowe postępowym, jeśli jest postępowe zarówno teoretycznie jak i empirycznie, a degenerującym się, jeśli nie jest. „Uznajemy” przesunięcia problemowe za „naukowe” tylko wtedy, gdy są one przynajmniej teoretycznie postępowe; jeśli nie są to „odrzucamy” je jako „pseudonakuowe”. Postęp jest mierzony stopniem, w jakim przesunięcie problemowe jest postępowe, stopniem, w jakim seria teorii wiedzie do odkrywania nowych faktów. Uważamy teorię w serii za „sfalsyfikowaną”, gdy wyparła ją teoria o treści potwierdzonej w wyższym stopniu.

To ostatnie zdanie również wymierzone jest w popperowską wersję falsyfikacjonizmu. Żadne bowiem doświadczenie, ani sprawozdanie z eksperymentu, a co za tym idzie, żadne zdanie obserwacyjne ani dobrze potwierdzona hipoteza falsyfikująca o niskim stopniu ogólności nie mogą prowadzić do falsyfikacji.

Lakatos stwierdza wprost, iż przed pojawieniem się lepszej teorii nie ma falsyfikacji. Ta ostatnia nie jest bowiem relacją pomiędzy teorią a bazą empiryczną, lecz wieloczłonową relacją pomiędzy konkurencyjnymi teoriami a wyjściową bazą empiryczną i empirycznym wzrostem treści wynikającym z tego współzawodnictwa. Z falsyfikacją związana jest możliwość uznania treści jakiegoś twierdzenia o faktach za kontrświadectwo. I w tym przypadku widać odstępstwo od modelu popperowskiego. Lakatos proponuje wręcz aby z pojęć filozofii nauki wykluczyć taki termin jak „kontrświadectwo” lub co najmniej go przedefiniować, ponieważ jest on mylący. Nie istnieje taki wynik doświadczenia, który bezpośrednio można zinterpretować jako kontrświadectwo. Pisze tak.

Kontrświadectwo względem T1 jest przypadkiem potwierdzającym T2, która jest bądź to sprzeczna z T1, bądź to od T1 niezależna (z tym zastrzeżeniem, że T2 w zadowalający sposób wyjaśnia empiryczne sukcesy T1). Stąd widać, że rozstrzygające kontrświadectwa lub eksperymenty rozstrzygające mogą być jako takie zidentyfikowane wśród licznych anomalii jedynie po czasie, w świetle pewnej zwycięskiej teorii.

Przedmiotem zainteresowania uczonego nie są ani przypadki potwierdzające, ani anomalie. Tym co interesuje uczonego, są przypadki konfirmacji nadwyżek. Wyciąga z tego Lakatos wniosek, że nauka może się rozwijać bez konkluzywnych obaleń, ponieważ nie muszą one towarzyszyć postępowemu przesunięciu problemowemu. O wiele ważniejszym czynnikiem dynamizującym rozwój nauki jest postulat mnożenia teorii (proliferacji).

Nie należy czekać z mnożeniem teorii póki uznane teorie nie zostaną obalone. W przeciwieństwie do ujęcia popperowskiego postulującego zastępowanie hipotezy sfalsyfikowanej hipotezą lepszą, Lakatos postuluje zastępowanie dowolnej hipotezy hipotezą lepszą.

Na zjawisko falsyfikacji patrzy Lakatos w odmienny do Poppera sposób. Mówi, że wyrafinowana falsyfikacja jest procesem wolniejszym i bezpieczniejszym od falsyfikacji naiwnej.

(Naiwny falsyfikacjonista podejmować musiał aż pięć rodzajów decyzji: 1.decyzją badacza wyróżnia się, które zdania jednostkowe uznać należy za twierdzenia bazowe; 2. oddziela się zbiór akceptowanych twierdzeń bazowych od pozostałych zdań nauki, których się nie akceptuje, lecz udowadnia; 3. Podaje się pułap odchyleń, po przekroczeniu którego świadectwa statystyczne są niezgodne z teorią, co umożliwia odrzucenie teorii probabilistycznej lub zaliczenia jej do nauki; 4. klauzulę ceteris paribus przenosi się do niekwestionowanej wiedzy towarzyszącej, jednakże tylko wtedy, gdy pewnym jest, że klauzula ta została dobrze potwierdzona; 5. eliminuje się te teorie, które z powodu swej logicznej (syntaktycznej) formy nie mogą posiadać nawet potencjalnych falsyfikatorów.)

Nie widzi Lakatos możliwości uniknięcia pierwszego, drugiego i trzeciego rodzaju decyzji. Można natomiast, zwłaszcza w stosunku do drugiej i trzeciej złagodzić jej element konwencjonalny. Musimy uznać, które zdania pełnić będą funkcję zdań bazowych. W stosunku do decyzji drugiego i trzeciego rodzaju proponuje Lakatos wprowadzenie „procedury apelacyjnej” pozwalającej na odwoływanie wcześniej przyjętych ustaleń.

Na mocy zaakceptowanego zdania bazowego w oparciu o dobrze potwierdzoną hipotezę falsyfikującą naiwny falsyfikacjonista powinien dokonać odrzucenia sprawdzanej teorii. Lakatos stwierdza, iż można w zamian uznać problematyczność owej koniunkcji zdania bazowego z hipotezą falsyfikującą, a pozostawić sprawdzaną teorię. Pojawiający się tu problem sprawdzenia owej koniunkcji, którą kwestionujemy Lakatos rozwiązuje następująco. Uczony musi odpowiedzieć sobie na pytanie, którą z dwóch teorii uważał będzie za interpretacyjną, a którą za wyjaśniającą. Lakatos proponuje następujące rozstrzygnięcie tego problemu.

Musimy podjąć metodologiczną decyzję, które z twierdzeń (tzn. koniunkcję zdania bazowego z hipotezą falsyfikującą czy samą sprawdzaną teorię) uznać za „fakt”, a które za „teorię”. Na gruncie modelu monoteoretycznego (czyli naiwnego falsyfikacjonizmu) za „fakt” uznać należy oczywiście koniunkcję, lecz jeśli chcemy przeprowadzić procedurę apelacyjną musimy użyć modelu pluralistycznego, w ramach którego nie mówi się o kolizji pomiędzy faktami a teoriami, lecz pomiędzy dwiema teoriami wysokiego poziomu. Dokonuje się wyboru pomiędzy dostarczającą faktów teorią interpretacyjną a teorią wyjaśniającą fakty, nie rozstrzygając jednocześnie, że teoria interpretacyjna ex definitione musi być teorią niższego poziomu niż teoria wyjaśniająca. Metodolog powinien przyjąć, że teoria interpretacyjna jest tego samego poziomu co teoria wyjaśniająca. Decyzja ta pociąga za sobą uznanie, iż kolizje nie następują pomiędzy teoriami o różnym stopniu ogólności.

W modelu monoteoretycznym uznaje się teorię wyższego poziomu za teorię wyjaśniającą, o której sąd wydają fakty. W przypadku kolizji odrzuca się samo wyjaśnienie. W modelu pluralistycznym w przypadku kolizji odrzucić można „fakty”, uznając je za dziwolągi. Istotą modelu pluralistycznego jest to, że procedura sprawdzania dotyczy wzajemnie połączonych i lepiej lub gorzej dedukcyjnie uporządkowanych teorii.

Wynika z tego, iż problem przesuwa się z problemu zastąpienia teorii obalonej przez fakty na problem usunięcia sprzeczności pomiędzy wzajemnie powiązanymi teoriami, przy jednoczesnym dokonaniu wyboru, którą z wzajemnie sprzecznych teorii należy wyeliminować. Eliminujemy, zdaniem Lakatosa, według następującej procedury. Rozpoczynamy od próby zastąpienia jednej, potem drugiej teorii, jeśli nic nie osiągnęliśmy, próbujemy zastąpić je obie celem zaproponowania takiego układu teorii, który dostarczy największego wzrostu potwierdzonej treści, czyli wytworzy najbardziej postępowe przesunięcie problemowe.

Z decyzjami czwartego i piątego rodzaju naiwnego falsyfikacjonizmu radzi sobie Lakatos następująco. Nie musimy podejmować decyzji, który składnik naszej wiedzy uznamy za problematyczny, a który za bezproblematyczny. Wszystkie traktujemy jako problematyczne w tym sensie, iż jesteśmy gotowi zastąpić każdy element naszej wiedzy. Chodzi o to aby zastępować poszczególne składniki w sposób postępowy, czyli taki aby nowa wersja miała więcej potwierdzonej treści empirycznej od swojej poprzedniczki. Jeśli uda nam się to osiągnąć, wtedy powiedzieć możemy, że zastąpiony składnik został „sfalsyfikowany”. Uważając pewne teorie obserwacyjne za problematyczne – pisze Lakatos – możemy naszą metodologię uelastycznić; ale nie możemy wyartykułować i włączyć całej „wiedzy towarzyszącej” (a może „towarzyszącej ignorancji”?) do naszego dedukcyjnego modelu krytyki.

Piąty typ decyzji proponuje wyeliminować Lakatos następująco. Syntaktycznie metafizyczne teorie proponuje on zachować tak długo, dopóki na jej gruncie wytwarzać można postępowe przesunięcia problemowe. Zwraca Lakatos uwagę, że od stanu naszej wiedzy zależny jest racjonalny wybór logicznej formy teorii ponieważ przyjmowane dziś syntaktycznie metafizyczne zdania typu „wszystkie – niektóre” z biegiem czasu stać się mogą zdaniami naukowymi typu „wszystkie”.

Formułując swoje samodzielne stanowisko metodologii naukowych programów badawczych w nawiązaniu do swojego postulatu badania nie pojedynczych teorii lecz serii teorii, zauważa Lakatos, iż najważniejsze z takich serii teorii łączy pewna ciągłość, pozwalająca nazywać je programami badawczymi, którą stanowią następującego rodzaju dwa rodzaje reguł metodologicznych;

heurystyka negatywna, nakazująca jakich dróg badań unikać;

heurystyka pozytywna, wskazująca jakimi drogami badań należy podążać.

Tak pojmowaną naukę charakteryzuje następująco.

(…) naukę jako całość można uważać za ogromny program badawczy, z naczelną regułą heurystyczną Poppera: „wymyślaj przypuszczenia, które mają bogatszą treść empiryczną od przypuszczeń wcześniejszych”.

Zauważa Lakatos, że niektóre hipotezy naukowe od momentu gdy zostaną sformułowane pełnią w nauce rolę silnych heurystycznych zasad rządzących rozwojem całego ciągu teorii. Zasady te nazywa on „twardym rdzeniem” (hard core). To właśnie w nie heurystyka negatywna zakazuje ataków. Jako przykłady podaje on trzy zasady mechaniki Newtona oraz jego prawo grawitacji.

Tego typu rdzeń jest nieoblalany droga metodologicznej decyzji zwolenników danego programu, rozwija się on pomału, stanowiąc owoc długiego procesu prób i błędów. Rdzeń taki zanurzony jest w oceanie anomalii, istnieje wiele teorii i obserwacji z nim sprzecznych. Względem nich pozostaje on nie zmieniony na przestrzeni całego okresu funkcjonowania programu.

Wokół tego rdzenia powstaje „pas ochronny” (protective belt) składający się z hipotez pomocniczych i warunków początkowych, tworzonych przez uczonych w celu przyjmowania całej siły uderzenia wszelkich możliwych sprawdzianów. Jest on nieustannie modyfikowany i niejednokrotnie całkowicie zmieniany celem obrony twardego rdzenia. Budowę i dokonywanie zmian w pasie ochronnym programu badawczego tak by pozostawiać nienaruszonym twardy rdzeń nazywa Lakatos pozytywną heurystyka programu.

O ile obydwie procedury, tj. heurystyka pozytywna i negatywna wiodą do postępowego przesunięcia problemowego o danym programie powiedzieć można, że jest udany. Takiemu programowi stawia Lakatos następujące wymogi.

Każdy krok programu badawczego powinien powiększać treść – stanowić powinien postępowe teoretyczne przesunięcie problemowe.

Wzrost treści powinien retrospektywnie wyglądać na potwierdzony. Znaczy to, że nie musi on natychmiast wytwarzać nowego, obserwowalnego faktu. Powinien stwarzać ku temu perspektywę. Pozwala to na obstawanie przy programie pomimo pojawiających się jego obaleń.

Takie obalenia można ignorować tak długo, jak długo rośnie potwierdzona treść empiryczna ochronnego pasa hipotez pomocniczych.

Owe trzy wymogi pozwalają na rezygnację z twardego rdzenia nie z powodów estetycznych (contra Duhem) lecz z powodów logicznych i empirycznych, w chwili gdy nie może być dalej mowy o postępowym teoretycznym przesunięciu problemowym, bowiem nie następuje już przyrost nowych obserwowalnych faktów, a w ich miejsce pojawiają się obalenia, które trudno jest ignorować.

To heurystyka pozytywna chroni program przed anomaliami. Przyswajanie i wyjaśnianie anomalii odbywa się zgodnie z pewnym trybem postępowania, który nazywa Lakatos „polityką badań”. Jest ona ustalana w gabinecie teoretyka niezależnie od znanych anomalii. Heurystyka ta składa się z częściowo wyartykułowanego zbioru sugestii dotyczących sposobów zmiany i rozwijania obalalnych wersji programu badawczego. Dzięki temu możliwe jest utworzenie łańcucha coraz to bardziej skomplikowanych modeli naśladujacych rzeczywistość. Model charakteryzuje Lakatos następująco.

Model jest zbiorem warunków początkowych (wraz, być może, z pewnymi teoriami obserwacyjnymi), o którym wiemy, że musi zostać zastąpiony w trakcie dalszego rozwoju programu, a nawet wiemy, lepiej lub gorzej w jaki sposób. To jeszcze raz pokazuje, jak nieistotne są „obalenia” poszczególnych wersji w ramach programu badawczego: ich istnienia się oczekuje, pozytywna heurystyka istnieje jako strategia zarówno ich przewidywania (wytwarzania), jak przyswajania. Faktycznie, jeśli heurystyka pozytywna zostanie w pełni wytworzona, to trudności programu stają się raczej matematyczne niż empiryczne.

W czasie obowiązywania danego programu daje się zaobserwować pewien mechanizm zmiany, konsekwencją którego są kolejne wersje programu. To właśnie podczas rozwoju programu otrzymujemy kolejne teorie ciągu teorii.

Metodologia naukowych programów badawczych dopuszcza pewien stan rzeczy irracjonalny zarówno na gruncie justyfikacjonizmu jak i naiwnego falsyfikacjonizmu. Zauważa Lakatos, że niektóre spośród najbardziej istotnych w historii nauki programów badawczych połączone zostały („zaszczepione” – takiego określenia używa) ze starszymi programami, z którymi były rażąco sprzeczne. Przytacza dwa przykłady: astronomia Kopernika zaszczepiona została na fizyce Arystotelesa, oraz program Bohra na programie Maxwella. W tego typu przypadkach, gdy świeżo zaszczepiony program zaczyna się umacniać, symbioza przekształca się we współzawodnictwo, a zwolennicy nowego programu zaczynają dążyć do wyeliminowania starego.

Podejście takie uznaje Lakatos za racjonalne ponieważ wieść może ku postępowemu przesunięciu problemowemu, jednakże obwarowuje je pewnymi zastrzeżeniami. Gdy minie postępowa faza programu utrzymywanie tego typu sprzeczności uznać należy za irracjonalne. Sprzeczności poddawać należy „czasowej kwarantannie”. Sedno swego stanowiska wyraża następująco.

Twierdzić, że… musimy pogodzić się ze… sprzecznościami, jest metodologicznym przestępstwem. Z drugiej strony, nie znaczy to, że odkrycie sprzeczności – lub anomalii – musi natychmiast zatrzymać rozwój programu: poddanie tej sprzeczności czasowej kwarantannie ad hoc i podążanie za heurystyką pozytywną programu może być racjonalne.

W stosunku do zaszczepionych programów, zauważa on, w historii nauki dadzą się zaobserwować następujące trzy stanowiska, które nazywa: konserwatywnym, anarchistycznym i racjonalnym.

Stanowisko konserwatywne uznające, że jest rzeczą irracjonalną pracować na sprzecznych podstawach, nakazuje wstrzymanie badań w ramach nowego programu, aż do momentu, w którym sprzeczność z programem starym zostanie wyeliminowana. Rozwijanie nowego programu jest sensowne tylko wtedy, gdy jest ono redukcją do programu starego.

Jego przeciwieństwem jest stanowisko anarchistyczne, uznające sprzeczność między programami za immanentny składnik albo samej przyrody albo jej form poznawania.

Stanowisko racjonalne, którego orędownikiem jest Lakatos, jest próbą pogodzenia dwóch poprzednich. W stosunku do zaszczepionych programów charakteryzuje się ono wykorzystaniem ich mocy heurystycznej, przy jednoczesnym odnoszeniu się z dystansem do wynikających z nich sprzeczności. O rozwoju programu decyduje jego heurystyka pozytywna, występujące w nim sprzeczności nie stanowią zachęty do jego obalenia. Dzieje się tak ponieważ we wczesnej wersji takiego zaszczepionego programu sprzeczności są czymś oczywistym. Dlatego właśnie Lakatos przestrzega przed nadawaniem wczesnym wersjom programu obalalnej interpretacji – ponieważ dotarcie do interesującej wersji programu, czyli do wersji sprawdzalnych w interesujący sposób, a zatem wiodących ku nowym faktom, trwać może bardzo długo.

Spojrzenie Lakatosa na wcześniejsze rozwiązania problemu demarkacji zrekonstruować można następująco. Po szoku spowodowanym upadkiem teorii Newtona, gdy okazało się, że wszystkie teorie naukowe są w równym stopniu nieudowadnialne nad matematycznym przyrodoznawstwem zawisło widmo sceptycyzmu: Co odróżnia wiedzę naukową od pseudonauki i rozmaitych złudzeń?

Jedną z poważniejszych odpowiedzi było stanowisko logicznych empirystów zalecające powstrzymywanie się od mówienia czegokolwiek, co nie jest wysoce prawdopodobne w sensie prawdopodobieństwa matematycznego. Jednak, głównie za sprawą wysiłków Poppera, okazało się, że matematyczne prawdopodobieństwo każdej teorii empirycznej, przy dowolnej liczbie potwierdzających ją danych, wynosi zero. Z czego wynikało, że teorie naukowe są nie tylko nieodowadnialne ale i nieprawdopodobne – atrakcyjne kryterium demarkacji probabilistów i logicznych empirytów, pozwalające na dokonywanie wyborów między teoriami wysoce prawdopodobnymi i mało prawdopodobnymi, okazało się bezużyteczne.

Kryterium naiwnego falsyfikacjonizmu (kryterium Poppera) polegające na apriorycznym orzeczeniu o naukowym charakterze teorii na podstawie jej zdolności do pozostawania w sprzeczności z określonymi obserwacjami, czyli gdy posiada ona potencjalne falsyfikatory i na konieczności odrzucenia jej w momencie przeprowadzenia eksperymentów falsyfikujących jest zbyt odległe od autentycznej praktyki badawczej, bowiem uczeni, praktycznie rzecz biorąc nigdy, nie rezygnują z teorii tylko dlatego, że pozostaje w sprzeczności z wynikami eksperymentalnymi. Postępują tak dlatego, że każda teoria pływa w oceanie anomalii – praktycznie rzecz biorąc każda teoria naukowa, boryka się ze sprzecznymi z nią wynikami eksperymentów.

Nowe podejście do demarkacji przedstawia się następująco. Seria teorii wieść musi ku postępowemu przesunięciu problemowemu. O naukowym charakterze teorii świadczy posiadanie przez nią potwierdzonej nadwyżki treści empirycznej w stosunku do swej rywalki – przewiduje ona nowe fakty (albo takie, o których stara nic nie mówi, albo takie, które stara wyklucza).

Zdaniem wyrafinowanego falsyfikacjonisty teoria T jest sfalsyfikowana gdy zaproponowano względem niej alternatywną teorię T', spełniającą trzy warunki: (a) T' ma nadwyżkę treści empirycznej względem T, (b) T' wyjaśnia poprzednie sukcesy T, czyli cała nieobalona treść T zawarta jest w treści T', (c) część z nadwyżki treści T' została potwierdzona.

Jak się zdaje, Lakatos jest pierwszym filozofem nauki, który zauważa implikacje natury etycznej, społecznej i politycznej płynace z problemu demarkacji. Pisał tak:

Kościół katolicki ekskomunikował zwolenników Kopernika, a partia komunistyczna prześladowała zwolenników Mendla, twierdząc, że ich doktryny były pseudonaukowe.

W związku z tym przestrzega przed szafowaniem zarzutem nienaukowości, bowiem decyzje co jest a co nie jest naukowe uzależnione mogą być od decyzji politycznych i z samą nauką mieć niewiele lub nic wspólnego.

Wersja Feyerabenda

Pod wpływem uroku Poppera przyjmuje Feyerabend, że rygorystycznie stosowane kryteria racjonalności stworzą taką praktykę naukową, którą bez wątpienia stanie się wzorcem dla wszystkich dziedzin przyrodoznawstwa Utrzymuje on również, że głównym przedmiotem teoretycznej refleksji nad nauką jest problem rozwoju wiedzy naukowej. Akceptuje również popperowską zasadę empirycznego wzrostu – każda nowa teoria winna wyjaśniać sukcesy teorii poprzednich i prowadzić do odkrycia nowych, sprawdzalnych empirycznie, twierdzeń o świecie. Od wiedzy wymagać należy maksymalnej testowalności, a od siebie samego maksymalnego krytycyzmu wobec swoich poczynań. Do tego wszystkiego dodaje jeszcze elementy empiryzmu o wittgensteinowskim zabarwieniu – radykalne ograniczenie niezależności spekulacji teoretycznej, uzależnienie działań teoretyka od wyników eksperymentalnych.

Mówiąc krótko, krytyczny racjonalizm Feyerabenda miał być metodologią zgodną z historią nauki, zachowującą: zalety metodologii popperowskiej, antydogmatyzm wzbogacony o wittgensteinowski empiryzm, oraz zasadę proliferacji, akceptowaną i rozwijaną pod wpływem Lakatosa.

Metodologiczny program Feyerabenda przedstawić można pod postacią dziesięciu tez, które krytykuje i dziesięciu kontrtez – zaznaczonych niżej [], które akceptuje.

Dwujęzykowy (obserwacyjny i teoretyczny) model nauki, w ramach którego ten drugi zależny jest (w kwestii znaczeń i prawdziwości) od pierwszego. [1] Nie istnieje sztywny podział języka na obserwacyjny i teoretyczny. Język obserwacyjny jest elementem języka teoretycznego, który może być używany jako obserwacyjny przez odpowiednio przeszkolonego naukowca.

Teza o stabilności przyjmująca teoretyczną neutralność języka obserwacyjnego, dzięki której dokonywać można ocen spornych teorii, ponieważ znaczenia tego języka nie są funkcją teorii. [2] Wszystkie twierdzenia obserwacyjne mają teoretyczny charakter, ponieważ są one funkcją teorii w, ramach której zostały wyrażone.

Zdania obserwacyjne stanowią niepodważalną bazę dla każdej teorii naukowej. [3] Zdania obserwacyjne mają hipotetyczny charakter. Ulegają one zmianom wraz ze zmianą teorii.

Teza o niezmienności znaczeniowej, utrzymująca, że dla dobrze potwierdzonych teorii ich znaczenia nie ulegają zmianom w trakcie rozwoju nauki, ponieważ definiowane są na podstawie niepodważalnej bazy empirycznej. [4] Znaczenia twierdzeń dobrze potwierdzonych teorii mogą ulegać zmianom, ponieważ nie istnieje niepodważalna baza nauki.

Instrumentalizm, zgodnie z którym teorie nic nie mówią o naturze świata, systematyzując jedynie dane doświadczenia. Terminom teoretycznym nie odpowiadają żadne realnie istniejące przedmioty. [5] Realizm postulujący realne istnienie opisywanych przedmiotów, a co za tym idzie postulujący jakąś ontologię, jako stanowisko trudniejsze do utrzymania od instrumentalizmu zmusza uczonych do wysiłku twórczego, tym samym przyczyniając się do wzrostu wiedzy. Wszystkie przełomy w nauce związane były ze stanowiskiem realistycznym, obecna stagnacja w fizyce jest wynikiem instrumentalistycznej interpretacji szkoły kopenhaskiej.

Teza o możliwości interteoretycznej redukcji, zgodnie z którą twierdzenie poprzedniej teorii wynikać muszą z twierdzeń teorii następnej. [6] Teza o redukcji ogranicza zbiór poszukiwanych teorii jedynie do tych, które dają się wyrazić w tym samym języku co teorie poprzednie. To, że wszystkie teorie naukowe muszą być wyrażone w tym samym języku nie znajduje potwierdzenia w historii nauki.

Zdanie wyjaśniane musi logicznie wynikać ze zdań wyjaśniających, na które składają się prawa i warunki początkowe. [7] W przełomowych momentach nauki nie jest spełniana relacja dedukowalności pomiędzy eksplanansem a eksplanandum z powodu zmiany znaczeń terminów naukowych.

Nowa teoria powinna być zgodna ze starą teorią co najmniej w odniesieniu do zdań obserwacyjnych (w granicach błędu obserwacyjnego), ponieważ ta pierwsza wyjaśniać musi wszystkie fakty tej drugiej.[8] Takie stanowisko jest przeszkodą dla faktycznego uprawiania i rozwoju nauki, ponieważ nowa teoria może nie wyjaśniać niektórych faktów (może je nawet unieważniać), które wyjaśniane były przez starą teorię.

Nowych teorii poszukiwać należy dopiero wtedy, gdy obecna teoria znajdzie się w kłopotach. [9] Pluralizm teoretyczny i zasada proliferacji jest niezbędnym składnikiem rozwoju nauki, ponieważ stwarzają one możliwości dla alternatywnych ujęć badanego problemu.

Postęp nauki polega na kumulatywnym powiększaniu ilości wyjaśnianych danych. Nowa teoria wyjaśnia to wszystko, co jej poprzedniczka wraz z wyjaśnieniem nowych problemów. [10] Nowe teorie o dużym stopniu uniwersalności są niewspółmierne ze starymi.

Paradygmatyczny rozwój wiedzy naukowej

Ze wszystkich możliwych interpretacji dziejów nauki jej ujęcie paradygmatyczne wydaje się być ujęciem najszerszym, ponieważ w sposób jak dotychczas najpełniejszy ujmuje funkcjonowanie całego mechanizmu reguł, procedur oraz społeczności zwanego nauką.

W 1962r. ukazuje się drukiem rozprawa amerykańskiego historyka i filozofa nauki Thomasa S. Kuhna The Structure of Scientific Revolutions. Główne tezy pracy Kuhna pozostają w jawnej niezgodzie z najbardziej fundamentalnymi przesłankami logicznego empiryzmu, atakując przede wszystkim:

synchroniczne ujęcie nauki,

rekonstrukcję wiedzy naukowej na gruncie „neutralnego”, wolnego od założeń teoretycznych języka,

sztywnego rozgraniczenia na fakt i teorię,

przekonania, że jedynym kryterium odrzucania teorii jest jej konfrontacja z rzeczywistością,

oraz jej obraz jako procedury na wskroś logicznej a przez to racjonalnej.

Nowatorstwo podstawowych idei książki Kuhna przedstawić można następująco. Sprzeciwia się on ocenianiu przeszłych poglądów naukowych z punktu widzenia współczesnych kanonów i wzorców. Tego typu ahistoryczne oceny uniemożliwiają zrozumienie kwestii kształtowania się wiedzy naukowej. Jej bowiem konsekwencją jest konstatacja, iż uczeni w przeszłości zajmowali się tymi samymi problemami, które próbują rozwiązać teorie współczesne. Takie stanowisko stwarza iluzję, że cały rozwój wiedzy ma czysto kumulatywny charakter, maskując tym samym istnienie w nauce rewolucji, czyli paradygmatycznych zmian punktów widzenia. Same kryteria naukowości podlegają również zmianom, co znaczy, iż są one produktem określonej historycznie zmiennej kultury filozoficzno-naukowej. Nie istnieją zatem w nauce jej niezmienne wzorce uprawiania ani kryteria oceny jej rezultatów.

Rozwój nauki jest dla Kuhna zarówno rozwijaniem określonych paradygmatycznych punktów widzenia jak również rewolucyjnym przechodzeniem od jednego do drugiego sposobu widzenia świata o odmiennych założeniach i kanonach naukowości – a przez to sposobów niewspółmiernych.

Jego schemat rozwoju nauki jest trójetapowy: okres protonauk, okres paradygmatyczny, rewolucja naukowa.

W pierwszym okresie – protonauki, pojawiającym się tylko raz w dziejach każdej dyscypliny naukowej, działalność badawcza ogranicza się do niezorganizowanego jakąś zasadą gromadzenia faktów, nie istnieje jeszcze bowiem jeden paradygmat pozwalający na wskazywanie najistotniejszych problemów oraz sposobów ich rozwiązywania.

Wykształcenie się takiego paradygmatu jest cechą [okresu drugiego, okresu nauki dojrzałej (paradygmatycznej)]. Przejście do tego etapu nie polega na zdobyciu jakiegokolwiek paradygmatu, lecz na wykształceniu takiego, który umożliwiał będzie rozwiązywanie łamigłówek, czyli normalną działalność naukową.

Podstawową cechą charakterystyczną każdej dyscypliny naukowej jest to, iż rządzona jest ona przez znaczną część swoich dziejów przez paradygmat, który określa Kuhn jako:

powszechnie uznawane osiągnięcia naukowe, które w pewnym czasie dostarczają społeczności uczonych modelowych problemów i rozwiązań.

Nie należy rozumieć paradygmatu jako pojęcia zakresowo nadrzędnego w stosunku do teorii. Jest on pewną odmianą teorii wzbogaconą o aspekt aplikacyjny. Stanowi on zatem pewną linię myślenia wyznaczającą określoną tradycję badawczą dla wspólnoty uczonych, dzięki której wiedzą oni w jaki sposób podchodzić mają do określonych zjawisk, jak wykonywać eksperymenty, jakie metody stosować. Okres dominacji paradygmatu nazwany został przez Kuhna okresem nauki normalnej. Nauka normalna i paradygmat są ze sobą nierozerwalnie związane: ta pierwsza artykułuje i aktualizuje paradygmat, ten drugi wyznacza granice dla nauki normalnej. Paradygmat nie zawsze pozostaje w zgodzie ze znanymi wynikami eksperymentalnymi, rozbieżności pomiędzy nimi zwane są anomaliami. Określa je Kuhn następująco:

Zajmując się… poszczególnymi odkryciami, przekonamy się szybko, że nie są one izolowanymi zdarzeniami, lecz rozciągłymi w czasie epizodami o regularnie powtarzalnej strukturze. Początek swój biorą one ze świadomości anomalii, tj. z uznania, że przyroda gwałci w jakiejś mierze wprowadzone przez paradygmat przewidywania rządzące nauką normalną… Epizod zamyka się wówczas, gdy teoria paradygmatyczna zostaje tak dopasowana do faktów, że to, co dotąd było anomalią, staje się czymś przewidywalnym.

Istotą nauki normalnej jest rozwiązywanie łamigłówek i anomalii drogą dokonywania rozmaitych poprawek w obrębie paradygmatu w taki jednakże sposób aby samego paradygmatu nie zmieniać. Co to znaczy? Procedury sprawdzania (rozwiązywanie anomalii) w nauce normalnej nie są procedurami sprawdzania prawomocności samego paradygmatu, lecz raczej sprawdzianem dla umiejętności samego uczonego. Istnienie paradygmatu oznacza dla uczonego istnienie rozwiązania konkretnego problemu, nad którym w danej chwili pracuje. Rozwiązywanie konkretnych problemów w ramach nauki normalnej nazywa Kuhn rozwiązywaniem łamigłówek. Te ostatnie określa następująco:

Rozwiązanie problemu w ramach badań instytucjonalnych polega na osiągnięciu przewidywalnego wyniku w nowy sposób i wymaga rozwiązania szeregu skomplikowanych łamigłówek matematycznych, teoretycznych i instrumentalnych… W potocznym znaczeniu słowa, do którego się tutaj odwołujemy, łamigłówka to specjalny rodzaj problemu, który służyć może za sprawdzian pomysłowości i biegłości w rozwiązywaniu… Kryterium wartości łamigłówki nie polega na tym, że wynik jej jest sam przez się doniosły czy interesujący. Przeciwnie, rzeczywiście naglące problemy – jak, na przykład, leczenie raka lub zachowanie pokoju – często w ogóle nie są łamigłówkami, głównie dlatego, że nie muszą mieć rozwiązania… Doniosłość rozwiązania nie jest kryterium wartości łamigłówki; jest nim natomiast samo istnienie rozwiązania.

Taka działalność (rozwiązywanie łamigłówek) spełniać powinna trzy następujące warunki: (1) zaprzeczać zajściu pewnych zjawisk; (2) trafnie przewidywać zajście pewnych zjawisk; (3) przewidywania zjawisk zależeć muszą od pewnej teorii, to ona wyjaśnia ich zachodzenie i ulepsza techniki ich przewidywania. Niepowodzenie w wyjaśnianiu jakichś zjawisk (niepowodzenie w wyjaśnianiu anomalii) obciąża uczonego a nie paradygmat.

Rewolucja naukowa ma miejsce wtedy, gdy nagromadzenie anomalii staje się tak znaczne, że uniemożliwia pracę w ramach danego paradygmatu – nierozwiązane łamigłówki czyli anomalie stają się argumentem na rzecz jego porzucenia i sformułowania kolejnego, będącego albo ulepszeniem poprzedniego, albo zupełnie nowym spojrzeniem na daną dziedzinę.

Argumenty przemawiające przeciwko paradygmatowi pojawiają się wtedy, gdy negatywne wyniki eksperymentalne zaczynają się mnożyć do tego stopnia, że w ramach wspólnoty uczonych pojawiać się zaczynają opinie o wadliwości paradygmatu. W tym momencie właśnie rozpoczyna się okres nauki nadzwyczajnej, innymi słowy mówiąc rewolucja naukowa. W stosunku do okresu czasu w jakim funkcjonuje paradygmat, rewolucja trwa krótko i kończy się na dwa sposoby:

powrotem do dawnego, lecz udoskonalonego paradygmatu; albo

naukowym przewrotem prowadzącym do nowego paradygmatu.

Kuhnowskie rozumienie procesu rozwoju nauki odbiegało od ujęć dotychczasowych, z których najważniejsze są dwa: neopozytywistyczne i popperowskie. Kuhn sformułował swoją własną koncepcję wyboru teorii i przechodzenia od jednej teorii do drugiej.

W jego opinii większość zwolenników nowego paradygmatu popiera go zanim potrafi przedstawić fakty, które albo potwierdzają nowy paradygmat albo zaprzeczają paradygmatowi poprzedniemu. Wskazuje on również na istnienie sytuacji, w których nowy paradygmat jednoznacznie wyjaśnia więcej niż paradygmat poprzedni a mimo to istnieją poważni uczeni opowiadający się na rzecz starego paradygmatu. Zachowania takie na gruncie koncepcji neopozytywistycznej i krytycznego racjonalizmu są irracjonalne, zaś w ramach perspektywy wyznaczanej przez koncepcję Kuhna irracjonalne nie są.

Poprzednie ujęcia kładły szczególny nacisk na badanie pewnego szczególnego wycinka dziejów nauki jakim są rewolucyjne epizody, one to bowiem miały stanowić istotę nauki, co z kolei dla Kuhna istoty nauki nie stanowi. Rewolucje nie są głównymi zdarzeniami w rozwoju nauki. Kuhn opierając się na materiale faktograficznym wykazuje, że, zwłaszcza w odniesieniu do okresów przełomowych w nauce, istnieją zasadne argumenty powalające zarówno na wątpienie w stary jak i w nowy paradygmat, innymi słowy mówiąc fakty nigdy nie są nieodparte, zawsze można w nie racjonalnie zwątpić.

Krytyka falsyfikacjonizmu Poppera

Ujęcie Kuhna podważa podstawowe założenia wszystkich wersji falsyfikacjonizmu. Główna różnica między Kuhnem a Popperem jest ich stosunek do metody badania nauki – z użyciem logiki (Popper) czy psychologii i socjologii (Kuhn)? Sam Kuhn tak oto ocenia krytyczny racjonalizm Poppera.

Nie potrafię jednak zinterpretować inaczej jego prac metodologicznych począwszy od Logik der Forschung. Sugerowałbym, że wbrew wypowiadanym explicite zastrzeżeniom, poszukiwał on stale procedur oceniających, które mogłyby być stosowane do teorii z taką samą apodyktyczną pewnością jak metody ujawniania błędów logicznych, rachunkowych lub pomiarowych. Obawiam się, że goni on za błędnym ognikiem, iluzją zrodzoną z tego pomieszania badań normalnych z rewolucyjnymi epizodami, które sprawiało, iż sprawdzanie zdaje mu się tak fundamentalną cechą nauki… Popper dał nam raczej ideologię niż logikę, raczej zalecenia proceduralne niż reguły metodologiczne.

Kuhn porównując swoje stanowisko ze stanowiskiem Poppera stwierdza, że łączą ich następujące przekonania. (1) Zainteresowanie dynamiką (a nie gotowym wytworem) procesu zdobywania wiedzy, pociągające za sobą konieczność analiz historycznych. (2) Odrzucenie kumulatywnej wizji nauki, z naciskiem na rewolucyjny charakter zastępowanie jednej teorii przez drugą. (3) Odrzucenie przekonania o odrębności języka teoretycznego i obserwacyjnego. (4) Obydwaj są realistami, wyjaśnianie zjawisk powinno odbywać się drogą odwołania się do realnie istniejących przedmiotów. (5) Obydwaj również kładą nacisk na rolę tradycji w rozwoju naukowym.

Kuhn nie neguje istnienia poważnych rozbieżności pomiędzy poglądami swoimi a Poppera. Istotę tej różnicy wyraża następująco.

Profesor Popper i ja odwołujemy się do tych samych danych, dostrzegamy jakby te same kreski na rysunku, zapytani zaś o te dane i kreski, dajemy zazwyczaj identyczne odpowiedzi, a co najmniej odpowiedzi, które wyjęte z kontekstu (do czego zmusza metoda pytań i odpowiedzi) wydają się identyczne… Z tego właśnie powodu twierdzę, że dzieli nas raczej sposób widzenia postaci niż różnica poglądów… Jak mam przekonać profesora Poppera, który o rozwoju nauki wie wszystko, co mnie wiadomo, i który tu lub ówdzie wszystko to już powiedział, że to, co nazywa kaczką, postrzegane być może jako królik. Jak mam mu pokazać, do czego doprowadziłoby go włożenie moich okularów, skoro przywykł już patrzeć na wszystko, co mógłbym mu wskazać, przez własne?

Rozbieżności te przedstawiają się następująco.

(1) Kuhn stwierdza, że obydwaj zgadzają się, iż badanie rozwoju nauki pociąga za sobą analizy jej faktycznego uprawiania w danym czasie. W tym kontekście jego niepokój budzi następująca teza Poppera, wypowiedziana w Logice odkrycia naukowego:

Naukowiec – teoretyk czy eksperymentator – formułuje zdania lub systemy zdań, które sprawdza krok po kroku. W szczególności na polu nauk empirycznych konstruuje on hipotezy, systemy teorii i sprawdza je doświadczalnie poprzez obserwację i eksperyment.

Z tezy tej wynika, że wszystkie hipotezy i systemy teorii sprawdzane są drogą doświadczalną. Kuhn stwierdza, że tylko określonego rodzaju twierdzenia i hipotezy poddawane są takiemu sprawdzaniu. Jego zdaniem testom takim podlegają jedynie twierdzenia indywidualnych uczonych dotyczące wyłącznie sposobu powiązania ich własnych problemów badawczych (tzw. łamigłówek, czyli problemów wynikających z zastosowania teorii, nie negujących jednakże prawomocności samej teorii) z zespołem powszechnie akceptowanej wiedzy naukowej, zaś sam ten zespół testowaniu nie podlega. Kontrtezę Kuhna przedstawić można następująco.

Przeciwnie, uczony zaangażowany w rozwiązywanie normalnego problemu badawczego musi dopuszczać akceptowaną teorię jako zbiór reguł własnej gry. Jego celem jest rozwiązanie łamigłówki, co innym się nie powiodło, a akceptowana teoria jest mu niezbędna do określenia łamigłówki. Ponadto daje mu ona gwarancję, że przy odpowiedniej pomysłowości znajdzie jej rozwiązanie.

(1.1) Uczony jest dla Kuhna „rozwiązywaczem łamigłówek” dla Poppera zaś jest on „rozwiązywaczem problemów”. Podobieństwo tych nazw, zauważa Kuhn, jest wielce pozorne. Tezie Poppera o roli uczonego:

[Świadomym zadaniem stojącym przed uczonym jest zawsze rozwiązanie problemu dokonujące się drogą skonstruowania rozwiązującej problem teorii; przykładowo poprzez wyjaśnienie nieoczekiwanych i niewyjaśnionych obserwacji].

Przeciwstawia swoją tezę:

Rzeczywistym celem nauki normalnej jest natomiast rozwiązanie łamigłówki, przy czym już założenie, że rozwiązanie takie istnieje, oparte jest na założeniu o zasadności paradygmatu. Niepowodzenie w uzyskaniu rozwiązania obciąża uczonego, a nie teorię.

Te dwie odmienne postawy uczonego, przy jednoczesnej akceptacji przez Kuhna i Poppera tezy o doniosłym charakterze krytycznego sprawdzania jako procedury naukowej, pociągają za sobą odmienne podejście do procedury sprawdzania. Popper kładzie nacisk na maksymalnie surowe testy mające doprowadzić do obalenia teorii naukowej podczas gdy Kuhn procedurę sprawdzania ogranicza tylko do określonej podklasy twierdzeń naukowych, są to działania dokonywane wyłącznie w ramach nauki normalnej.

(1.2) To odmienne podejście bierze się, zauważa Kuhn, z pominięcia przez Poppera niezmiernie istotnego faktu dotyczącego rozwoju wiedzy naukowej. Rozwój dla Poppera jest przechodzeniem od jednej teorii do drugiej, drogą przypuszczeń i obaleń. Konsekwencje takiego podejścia wyraża Kuhn następująco:

Twierdzę zatem, że Popper charakteryzuje całość działalności naukowej w kategoriach stosujących się jedynie do okazjonalnych epizodów – rewolucji.

Rewolucja, kontrargumentuje Kuhn nie jest permanentnym składnikiem nauki, zaś testy mające doprowadzić do ujawnienia słabych punktów teorii naukowej (nazywa je Kuhn badaniami nadzwyczajnymi) a w konsekwencji do jej obalenia, są w nauce zjawiskiem akcydentalnym, pojawiającym się albo jako następstwo uprzedniego kryzysu w danej dziedzinie wiedzy albo jako skutek pojawienia się nowej teorii, rywalizującej ze starą.

(2) Obydwaj podkreślają doniosłość stosowania kryterium demarkacji dla oceny naukowego charakteru analizowanej teorii. Obydwaj również przyjmują falsyfikowalność (sprawdzalność) jako kryterium demarkacji, jednakże zakresy jego stosowalności nie pokrywają się w ich koncepcjach.

(2.1) Kuhn jako kryterium demarkacji, pozwalające na udzielenie odpowiedzi na pytanie o naukowy charakter analizowanej teorii, proponuje rozpoznanie czy w analizowanej dziedzinie istnieje praktyka rozwiązywania łamigłówek. Wyraża to następująco.

(…) staranne zbadanie praktyki naukowej sugeruje, że naukę od innych rodzajów twórczości wyróżniają nie badania nadzwyczajne, lecz raczej normalne, w których tego rodzaju sprawdzanie, o jakim mówi Popper, się nie zdarza. Jeśli istnieje jakieś kryterium demarkacji (a nie powinniśmy – jak sądzę – szukać kryterium ostrego lub rozstrzygającego), to ukryte ono może być właśnie w tych obszarach badań naukowych, które Popper ignoruje.

Na korzyść swojego kryterium kontrargumentuje:

Stawiając pogląd Poppera na głowie, możemy raczej w pewnym sensie powiedzieć, że drogę kształtowania się nauki wytyczało odchodzenie od dyskursu krytycznego. Później dyskurs krytyczny odżywa już tylko w okresach kryzysów, kiedy podstawy danej dyscypliny okazują się znów zagrożone.

Dyskurs krytyczny ożywa w nauce tylko w tych momentach, gdy uczeni muszą dokonać wyboru pomiędzy rywalizującymi teoriami. Wtedy tylko, stwierdza, zachowują się jak filozofowie, zaś w pozostałych momentach rozwiązują łamigłówki uprawiając normalną naukę, czyli badania mające swe źródło w określonym szeregu naukowych osiągnięć przyszłości, które są w danym momencie akceptowane przez wspólnotę uczonych jako fundament ich dalszej praktyki. Uczeni podlegają wtedy tym samym regułom i standardom, których konsekwencją jest jednomyślność i współuczestnictwo w badaniach.

Tradycja generowania łamigłówek pozwala, stwierdza Kuhn, na znacznie precyzyjniejsze przeprowadzenie demarkacji pomiędzy nauką i nie-nauką niż popperowskie kryterium falsyfikowalności.Obydwaj zgadzają się, że materializm historyczny, psychoanaliza oraz astrologia nie są naukami, jednakże, zauważa Kuhn, wyłącznie na gruncie jego koncepcji w pełni da się uzasadnić, że astrologia nie jest nauką. Tezie Poppera ujmującej istotę nienaukowości astrologii:

Formułujący swe przepowiednie i interpretacje w nieścisły sposób astrologowie zawsze mogli wytłumaczyć wszystko, co mogłoby prowadzić do obalenia ich teorii, gdyby była ona, tak jak oparte na niej przewidywania, dokładniejsza. Celem ustrzeżenia się przed falsyfikacją, swą teorię czynili niesprawdzalną.

Przeciwstawia swoją tezę, wskazując na fałszywość popperowskiej, pisze on;

Historia astrologii notuje w czasach, kiedy ceniona była pod względem intelektualnym, co niemiara proroctw, które się zdecydowanie nie spełniły… Konfiguracja gwiazd i ośmiu planet nieustannie się zmienia. Tablice astronomiczne, z których korzystano do obliczania konfiguracji w chwili narodzin danej osoby, były notorycznie nieścisłe. Niewiele osób znało dokładnie chwilę swego przyjścia na świat. Trudno się zatem dziwić, że przepowiednie często zawodziły. Dopiero wówczas gdy astrologia utraciła swoją reputację, argumenty takie zaczęły uchodzić za wątpliwe. Dziś analogiczne argumenty wysuwa się w celu wyjaśnienia niepowodzeń prognostycznych medycyny czy meteorologii… toteż w sposobie, w jaki astrologowie tłumaczyli swoje niepowodzenia, nie było w zasadzie niczego nienaukowego.

Brak reguł uściślających astronomię nie mógł zatem być poczytywany jako oznaka jej nienaukowości. Astrolog mógł więc wytłumaczyć swoje niepowodzenia, a jego tłumaczenie mogło zostać uznane za zasadne. Nie mógł jednak, np. w przeciwieństwie do fizyka czy astronoma, dokonać takiej analizy swoich niepowodzeń, które doprowadziłyby do rewizji zastanej tradycji, czy do szukania dokładniejszych danych wyjściowych aby uściślić teorię. Żadne z jego niepowodzeń nie rodziło nowych łamigłówek, ponieważ nikt nie był w stanie wykorzystać ich celem dokonania rewizji nieprecyzyjnej teorii, jako, że nazbyt wiele kłopotów, z których znaczna część leżała poza możliwym obszarem wiedzy astrologa, nie pozwalała na dokonanie takiej rewizji. Taki stan rzeczy pociągał za sobą brak odpowiedzialności za nietrafne prognozy jak również brak negatywnej oceny działalności od kolegów po fachu.

(2.2) Ograniczając stosowanie kryterium sprawdzalności jedynie do nauki normalnej znacznie ogranicza Kuhn zakres jego stosowalności, a co za tym idzie jego doniosłość jako arbitra przy dokonywaniu racjonalnych wyborów pomiędzy konkurującymi teoriami. W jego ujęciu, stosowanie tego kryterium jest tożsame z uprawianiem nauki normalnej, czyli z rozwiązywaniem łamigłówek, a nie z dokonywaniem rewolucyjnych w niej przemian.

(3) Z tradycją rozwiązywania łamigłówek łączy Kuhn kolejną rozbieżność pomiędzy ich poglądami. Przejście od teorii do teorii dokonuje się w koncepcji Poppera drogą empirycznej falsyfikacji teorii gorszej. Kuhn nie neguje doniosłości falsyfikacji, zauważając przy tym, że nie jest to kryterium, które obowiązuje w całych dziejach nauki. Kontrtezę swoją formułuje następująco.

Traktowanie zabiegów sprawdzających jako wyróżnika działalności naukowej powoduje niedostrzeganie i tego, czym głównie zajmują się uczeni, i najbardziej charakterystycznych cech ich działalności.

W niektórych przypadkach testy takie nie są niezbędnym warunkiem rewolucji naukowej. Niezbywalnym jej warunkiem jest natomiast wyczerpanie się tradycji rozwiązywania łamigłówek, innymi słowy mówiąc teorii się nie porzuca dopóki nie traci ona zdolności do rozwiązywania łamigłówek.

(4) Zdecydowany sprzeciw Kuhna budzi teza Poppera, że uczymy się na własnych błędach. Takie uczenie się jest dla Poppera zastępowaniem jednej (błędnej) teorii przez drugą. Tezę tę atakuje Kuhn na trzech płaszczyznach.

(4.1) Błąd popełniany jest w określonym czasie, miejscu i przez określoną osobę. Jest on konsekwencją np. Pogwałcenia reguł logiki, języka czy referencji. Tak przedstawia sprawę Kuhn. W tej perspektywie sformułowanie „uczymy się na własnych błędach” oznacza, że istnieje możliwość skorygowania błędu, czyli że istnieje praktyka wykrywania błędów, możliwa dzięki istnieniu określonej wspólnoty postępującej zgodnie z określonymi regułami i zdolnej wykryć od nich odchylenia. Wyciąga z tego Kuhn wniosek, że takie błędy zdarzają się w nauce w zasadzie jedynie podczas dokonywania badań normalnych, polegających na rozwiązywaniu łamigłówek.

(4.2) Gdy brakuje takich reguł trudno mówić o popełnianiu błędu, a z taką sytuacją mamy do czynienia w popperowskiej perspektywie, traktującej stare teorie naukowe jako błędne rozwiązania określonych problemów. Uczenie się na błędach jest dla niego zastępowaniem jednej teorii drugą, nie zauważa jednak, stwierdza Kuhn, że przy rewolucyjnym przejściu od teorii do teorii mamy do czynienia z brakiem reguł generowania łamigłówek, z czego wynika, że i z brakiem błędów.

(4.3) Przyjęcie popperowskiej perspektywy pociąga za sobą konsekwencję wymierzoną wprost w całą jego metodologię. Bowiem wyłącznie w indukcyjnej perspektywie (odrzucanej przez obydwu filozofów) zastępowana teoria może być ujmowana jako błędna, w znaczeniu niepoprawnego uogólnienia istniejących faktów, w nieindukcjonistycznej perspektywie do momentu zastąpienia starej teorii nową, stara posiada wszystkie cechy związane z rzetelną wiedzą.

(5) Niekonkluzywny charakter falsyfikacji, na gruncie koncepcji paradygmatycznego rozwoju wiedzy nie stanowiący żadnego problemu, staje się dla krytycznego racjonalizmu problemem zasadniczym, zagrażającym spójności tego stanowiska. Jeśli ma on być logiką rozwoju nauki, to zarówno jej reguły postępowania jak i artykulacja analizowanych teorii muszą mieć charakter apodyktyczny. Tak jednak nie jest.

(5.1) W logicznym ujęciu Poppera, problem demarkacji powinien być problemem czysto syntaktycznym. Podobnie jak w logice i matematyce o konkluzywnym obaleniu miałby decydować stosunek pomiędzy samymi twierdzeniami, a nie pomiędzy twierdzeniem i obserwacją. Jednakże faktycznie występujące w nauce procedury, zauważają obydwaj, nie mają jedynie syntaktycznego charakteru, ponieważ wymagają aby badacz mógł odnieść uzyskane syntaktycznie zdania nie tylko do innych zdań, ale również i do obserwacji. Stanowisko Poppera w tej kwestii ujmuje Kuhn następująco:

przecząc istnieniu konkluzywnej falsyfikacji, Popper nie zastąpił jej niczym innym, a stosunek, na który się powołuje, ta nadal logiczna falsyfikacja. I chociaż Popper nie jest naiwnym falsyfikacjonistą, twierdzę, że może, niebezzasadnie, za takiego uchodzić.

Ocenę swoją opiera Kuhn na argumentach wskazujących używanie przez Poppera fundamentalnych pojęć jego logiki (falsyfikacji i obalenia) w logicznym kontekście z koniecznością pociągającym za sobą apodyktyczny charakter konkluzji.

(5.2) W logicznym ujęciu nauki przez Poppera wiedza naukowa, aby nadawała się do logicznych analiz powinna być w pełni wyartykułowana logicznie. Jednakże w perspektywie Kuhna wiedza ta nie jest i nigdy nie była w pełni wyartykułowana logicznie. Zakresy terminów naukowych nigdy nie są dokładnie określone, podobnie sprawy się mają z pełną treścią teorii naukowej, co jest konsekwencją, zauważa on, tworzenia się wiedzy naukowej metodą przypadków paradygmatycznych. Wyciąga z tego Kuhn wniosek, że logika nie jest najlepszym narzędziem służącym do oceny wiedzy naukowej.

(6) Celem nauki dla Poppera jest zwiększanie jej prawoupodobnienia, będące oznaką postępu, natomiast Kuhn problem prawdziwości teorii naukowej jako oznaki postępu, zastępuję jednomyślnością wspólnoty uczonych, osiągnięcie której powodować będzie szybki rozwój badań w danej dziedzinie. Wyraża to następująco.

Prostota, ścisłość, zgodność z teoriami przyjętymi w innych dziedzinach – wszystko to są istotne wartości dla uczonych, ale nie wszystkie narzucają ten sam wybór i nie wszystkie dają się realizować jednocześnie. Skoro tak, to jest rzeczą ważną, aby wartością nadrzędną była jednomyślność grupy. Minimalizuje ona liczbę okazji do konfliktów, szybko jednoczy grupę wokół reguł rozwiązywania łamigłówek, nawet za cenę dalszego jej podziału na specjalności lub wykluczenia z niej twórczego badacza.

Refleksję nad nauką, co jest oczywistą konsekwencją powyższej deklaracji Kuhna, należy uprawiać nie w postaci logiki wiedzy, lecz jako psychologię i socjologię wiedzy, wyraźniej ujmujących problemy związane z funkcjonowaniem określonej grupy społecznej jaką jest grupa naukowa.

Swoją replikę zawarł Popper na pięciu stronach w swojej Autobiografii. Stwierdza tam, że Kuhn tak naprawdę pozostawał pod wpływem tzw. legendy o Popperze a nie autentycznych jego twierdzeń, ostrze swojej krytyki skupiając na kuhnowskich tezach dotyczących nauki normalnej. Przyznaje Kuhnowi, że pod wpływem jego analiz zwrócił uwagę na fakt występowania nauki normalnej, jednakże od razu zaprzecza aby ten rodzaj uprawiania refleksji naukowej był czymś normalnym. Takie podejście jest zjawiskiem dla nauki niebezpiecznym, ponieważ doprowadzić może do końca autentycznej refleksji naukowej, i z drugiej strony, jest zjawiskiem, które pojawiło się w nauce dopiero po I wojnie światowej, gdy liczba uczonych znacznie się zwiększyła, co pociągnęło za sobą negatywną konsekwencję, że wśród tak licznej grupy dominację zdobyła grupa wyszkolonych technologów, a nie autentycznych naukowców.

Kontrindukcjonizm

Zauważona przez Feyerabenda niewykonalność jednocześnie wszystkich swoich propozycji z okresu umiarkowanego (wyrafinowanego falsyfikacjonizmu) i akceptacja tezy o niewspółmierności przyczyniła się do zarzucenia przez niego wyrafinowanego falsyfikacjonizmu i przejścia na stanowisko anarchistyczne.

Nazwa „kontrindukcjonizm” bierze się stąd, że indukcjonizm zaleca uznanie zgodności teorii z doświadczeniem za miarę jej powodzenia. Kontrindukcjonizm zaś jest postulatem wprowadzania i sprawdzania hipotez niezgodnych z dobrze potwierdzonymi teoriami lub faktami. Postulat postępowania kontrindukcyjnego ma dwie składowe – uczonemu zaleca się wprowadzanie i szczegółowe sprawdzanie hipotez niezgodnych z (a) dobrze potwierdzonymi teoriami; i\lub (b) faktami. Zalecenie Feyerabenda jest odwrotne do tego, co zalecane jest przez większość wcześniejszych metodologii: (ad a) uznawania prymatu dobrze potwierdzonych teorii nad teoriami potwierdzonymi gorzej; (ad b) potraktowania prymatu dobrze potwierdzonego faktu nad teorią.

Kontrindukcja jest zarówno faktem – nauka nie mogłaby istnieć bez niej – jak i uprawomocnionym i bardzo potrzebnym posunięciem w grze zwanej nauką.

W swojej najgłośniejszej książce „Przeciw metodzie” rozwija idee anarchizmu metodologicznego (epistemologicznego) i zasadę poznawczą anything goes („wszystko ujdzie”, „nic świętego”) daje, tak ze względu na formę wypowiedzi, jak i samą treść kontrowersyjne spojrzenie na naukę, filozofię nauki, oraz na cel uprawiania filozoficznej refleksji nad nauką.

Anarchizm metodologiczny wyzwaniem rzuconym wszystkim dotychczasowym filozofiom nauki, z empiryzmem na czele. Twierdzi, że o ile anarchizm nie jest specjalnie atrakcyjną filozofią polityczną, (zauważa bowiem, że większość wybitnych anarchistów społecznych, włączając w to Kropotkina i Baukunina – nie jest w stanie uwolnić się od mitu nauki, jako dziedziny, która jest w stanie rozwiązać wszystkie problemy społeczne, to dla epistemologii i filozofii nauki jest doskonałym lekarstwem, ponieważ jest bardziej ludzki i lepiej sprzyja postępowi niż wszystkie dotychczasowe koncepcje, postulujące logiczne uporządkowywanie teorii naukowych, lub nawiązujące do innych form ich racjonalnych rekonstrukcji.

Nawiasem mówiąc, trzeba zwrócić uwagę na to, że częste używanie przeze mnie takich słów jak „postęp”, „rozwój”, „ulepszenie” itd. nie jest z mojej strony urojeniem, że posiadam szczególną wiedzę o tym, co jest dobre, a co złe w poszczególnych dyscyplinach, ani że chcę narzucić tę wiedzę czytelnikom. Każdy może odczytywać te terminy na swój sposób i zgodnie z tradycją, do której należy. Tak więc dla empirysty postęp oznaczać będzie przejście do teorii, która oferuje bezpośrednie testy empiryczne dla większości swoich podstawowych założeń… Dla innych „postęp” oznaczać może unifikację oraz harmonię, być może nawet kosztem adekwatności empirycznej.

Dlaczego anarchizm jest najlepszą filozofią nauki? Albowiem jest najlepszą metodą – jako jedyne stanowisko pomaga w osiągnięciu postępu w dowolnym znaczeniu tego słowa. Realizuje to przy pomocy jedynej, możliwej w każdych warunkach do przyjęcia „zasady”, „wszystko ujdzie”, wypracowanej w oparciu o analizy materiału z historii nauki.

Zgodnie z historią nauki nie istnieje ani jedna zasada postępowania badawczego, której kiedyś by nie naruszono celem postępu w zdobywaniu wiedzy. Wielkie przełomy w nauce są konsekwencjami porzucenia lub nieświadomego złamania, powszechnie obowiązujących w danym momencie historycznym, reguł metodologicznych. Dla każdej takiej reguły istnieją sytuacje, w których należy nie tylko ją złamać, ale i zastosować względem niej kontrregułę, doprowadzającą często np. do akceptacji wewnętrznie sprzecznych hipotez, lub przyjęcia ad hoc hipotez sprzecznych z już uznanymi. W tym miejscu Feyerabend, uprzedzając krytykę, osią której byłoby stwierdzenie, że postępowanie takie wiedzie do akceptacji sprzeczności, zaznacza, iż uczony najczęściej przy jej pomocy (tzn. świadomie ją ignorując) otrzymuje ciekawe, teoretycznie lub empirycznie, wyniki.

Otóż nauka nigdy nie jest zakończonym procesem, zatem zawsze jest ona „przed” faktem. Stąd też prostota, elegancja lub zgodność nie są nigdy koniecznymi warunkami praktyki naukowej… Logicznie doskonałe wersje (o ile takie istnieją) zazwyczaj pojawiają się w długi czas po tym, jak wersje niedoskonałe przyczyniły się do wzbogacenia nauki.

Istotą jego anarchizmu epistemologicznego (Feyerabend używa zamiennie określeń „anarchizm teoretyczny” „anarchizm metodologiczny” i „anarchizm epistemologiczny”), który nazwać można również kontrindukcjonizmem, jest przekonanie, że podział na to, co racjonalne i to, co irracjonalne pozbawiony jest sensu, ponieważ nie istnieje jeden niezmienny zbiór reguł mogący być odniesieniem dla takiej oceny.

Wszystkie przedfeyerabendowskie metodologie zakładały istnienie takiego zbioru reguł, twierdząc, że istnieją specyficzne dla nauki powody dokonywania takich ocen. Żadna wcześniejsza metodologia nie podawała w wątpliwość istnienia charakterystycznej dla nauki racjonalności postępowania, spory pomiędzy szkołami metodologicznymi dotyczyły właśnie kryteriów wyboru takiego zbioru reguł, jeśli metodologię uważały za dyscyplinę normatywną, bądź chciały dokonać poprawnego opisu naukowej racjonalności, o ile postulowały deskryptywny charakter metodologii. Zdaniem Feyerabenda należy odrzucić owo podstawowe założenie wszystkich dotychczasowych systemów metodologicznych, że istnieje taka charakterystyczna dla nauki racjonalność postępowania badawczego.

Sens „fundamentalnej zasady” Feyerabenda – „wszystko ujdzie” – przedstawić można tak. Każda dosłownie idea, każdy pomysł, choćby dziś nie wiem jak wydawał się absurdalny, może okazać się, z biegiem czasu, przydatny dla rozwoju nauki. Jest więc oczywiste, że idea niezmiennej metody lub niezmiennej teorii racjonalności, oparta jest na zbyt naiwnym poglądzie na człowieka i jego środowisko społeczne.

Dla tych wszystkich, którzy przyglądają się bogatemu materiałowi dostarczonemu przez historię i którzy nie mają zamiaru zubożyć go w celu zaspokojenia swych niższych skłonności, swej tęsknoty za intelektualnym bezpieczeństwem przyjmującym formę jasności, precyzji, „obiektywności” i „prawdy”, stanie się jasne, że istnieje tylko jedna zasada, której bronić można we wszystkich okolicznościach i we wszystkich stadiach rozwoju ludzkości. Oto owa zasada: nic świętego.

Zwrot „fundamentalna zasada” nieprzypadkowo umieszczony jest w cudzysłowie. Feyerabend nie utrzymuje w „Przeciw metodzie” żadnej tezy metodologicznej. Nawet fundamentalna zasada „wszystko ujdzie” nie jest tak naprawdę zasadą. Mógłby ją głosić, w perspektywie znanych z historii nauki faktów, gdyby był racjonalistą, co obligowałoby go do poszukiwania jakiejś uniwersalnej zasady, a przecież on racjonalistą nie jest.

(…) „nic świętego” nie jest wyznawaną przeze mnie „zasadą” – nie sądzę, aby zasady można było stosować i owocnie o nich dyskutować poza konkretną sytuacją badawczą, na którą mają oddziaływać – lecz okrzykiem przerażenia racjonalisty, który wnikliwie przygląda się historii.

Jego przekonania, na których bazuje kontrindukcjonizm, zebrać można w następujący sposób:

Świat – włączając w to naukę – jest złożoną i nieuporządkowaną całością nie dającą się ująć prostymi teoriami i regułami;

Istnieje wiele sposobów porządkowania otaczającego nas świata;

Samo rozumowanie, nie poparte argumentami natury empirycznej, jest w odniesieniu do filozofii i nauki mało skuteczne;

próby przełożenia złożonego problemu na język logiki (tzw. jego doprecyzowanie) najczęściej powodują stworzenie innego problemu lub ominiecie pierwotnego problemu naukowego;

Bogaty i wieloznaczny język potoczny w odniesieniu do analiz problemów naukowych jest lepszy, bo elastyczniejszy i subtelniejszy, od technicznego żargonu filozoficznego, który zawsze jest jednostronny;

Nie istnieje jeden uniwersalny zdrowy rozsądek mogący stanowić podstawę pozwalającą, drogą odwołania się do niego, na jakiekolwiek próby tzw. „ostatecznego” wyjaśniania rzeczywistości;

Nie ma jednego zdrowego rozsądku, lecz wiele;

Nie ma wiedzy bez „chaosu”;

Nie ma postępu bez częstego odżegnywania się od rozumu;

Rozum, sprowadzany do niezmiennego zbioru reguł, fundujących możliwość poznania, jest nie do pogodzenia z nauką i nie mógł przyczynić się do jej rozwoju;

W samej nauce jest wiele sprzecznych elementów, z różnymi strategiami, rezultatami, metafizycznymi ozdobnikami.

Nauka jest kolażem, nie systemem…;

nauka jest o wiele bardziej „niechlujna” i „irracjonalna” niż jej metodologiczny obraz;

nauka zachodnia nie jest jedynym skutecznym sposobem poznania rzeczywistości, jest ich wiele, tak jak wiele jest kultur, z których każda wypracowuje, aby przeżyć, swój sposób współdziałania z rzeczywistością (np. magia);

może istnieć wiele różnych rodzajów nauki, ponieważ wywodzący się z różnych tradycji społecznych (kulturowych) ludzie różnie podchodzić mogą do świata, tym samym dowiadując się o nim różnych rzeczy;

celem nauki, jak i wszelkiej poznawczej refleksji nad światem jest rozszerzanie ludzkiej wolności, wspomaganie godnego życia i odkrywanie tajemnic natury;

naukę należy chronić przed ideologiami (np. racjonalizmem);

najlepszą ochroną dla nauki stanowi odrzucenie wszelkich uniwersalnych standardów i sztywnych tradycji;

wszystkie instytucje naukowe winny być poddane publicznej kontroli, tam zwłaszcza, gdzie nauka wywiera wpływ na społeczeństwo i kulturę, czyli praktycznie rzecz biorąc wszędzie;

społeczeństwo chronić należy przed zideologizowaną nauką;

naukę należy oddzielić od państwa;

wyników naukowych powinno się nauczać jako jednego (a nie jedynego) z wielu poglądów na świat;

jedyną metodologią, która poradzić sobie może z tak złożonym fenomenem, jakim jest nauka, jest metodologia pluralistyczna, świadoma swych historycznych uwarunkowań, nie przesądzająca w oparciu o aktualnie obowiązujące kryteria, co jest nauką, a co nią nie jest, oraz co jest, a co nie jest przydatne dla rozwoju nauki, życzliwie traktująca zarówno „obalone” już teorie, jak i wszelkie zagrożone „obaleniem” rozstrzygnięcia;

nie istnieje jedna reguła, która obowiązywałaby we wszystkich warunkach, ani jeden sposób działania, do którego zawsze można się odwoływać.

Jak z powyższych założeń widać, jego program, a w szczególności teoretyczny anarchizm, ma również wymiar społeczny.

Zasadniczą kontrregułę stanowi właśnie postulat postępowania kontrindukcyjnego, który obwarowuje Feyerabend następujcymi zastrzeżeniami:

Stosowane przez uczonych, celem przeforsowania nowego stanowiska, procedury kontrindukcyjne, nie są w żadnym przypadku w stanie ani umniejszyć racjonalności ani wiarygodności starego ujęcia, jedyne, co tym sposobem można osiągnąć, to zmniejszenie wpływu starych osiągnięć, na umysły tych, którzy już chcą, lub będą w niedalekiej przyszłości, głównie pod wpływem propagandy, chcieli zostać zwolennikami nowego ujęcia.

Nikt nie jest w stanie przewidzieć, jakie elementy z nowo lansowanego ujęcia okażą się z biegiem czasu owocne – i przyczynią się do powtórnego zwycięstwa rozumu, czyli uznania za racjonalne, tego, co z obecnego punktu widzenia nie może być ocenione inaczej – (te „odchylenia” i „błędy” stanowią warunki wstępne postępu – niż jako irracjonalne (… ani reguły, ani zasady, ani nawet fakty nie są uświęcone raz na zawsze) – jedynym dla tego probierzem są skłonności i upodobania zwolenników nowego ujęcia.

Często zdarzają się sytuacje, że nawet najbardziej liberalne, z obecnego punktu widzenia, reguły metodologiczne wyeliminować mogą stanowisko, które z przyszłego punktu widzenia byłoby dla rozwoju nauki korzystne.

Nierównomierności historycznego rozwoju rozmaitych dyscyplin i specjalności naukowych skutecznie uniemożliwia racjonalną rekonstrukcje procesów rozwojowych nauki.

Żadna z nieuhistorycznionych filozofii nauki nie jest w stanie pogodzić autentycznych procesów rozwojowych nauki ze swymi zasadami oceniania teorii.

Pomimo teoretycznej możliwości przeprowadzenia następujących dystynkcji: kontekst odkrycia – kontekst uzasadnienia, fakty – normy, terminy obserwacyjne – terminy teoretyczne, żadna z nich nie odgrywa istotnej roli w praktyce badawczej, a próby ich rygorystycznego przestrzegania skutecznie uniemożliwiłyby rozwój nauki.

Nie istnieją mimo to, powszechnie ważne racje na rzecz stanowiska kontrindukcyjnego, jak każde stanowisko metodologiczne, ma swoje ograniczenia. Inaczej to wyrażając, zdarzyć się mogą sytuacje, że chcąc przyczynić się do wzrostu wiedzy należy z kontrindukcjonizmu zrezygnować. Może, oczywiście, nadejść taki czas, kiedy trzeba będzie uznać przejściową przewagę rozumu kiedy mądrze będzie bronić jego praw do wykluczenia wszystkiego, co nie jest z nim zgodne.

Głosząc pochwałę kontrindukcjonzimu powołuje się Feyerabend nie tylko na filozofów nauki i uczonych, ale i na filozofów i działaczy społecznych, którzy, na pierwszy rzut oka, z filozofią nauki nie mają nic wspólnego: Marxa, Lenina i Trockiego. Ale przecież, w ramach jego podejścia, nie ma kryteriów bezwzględnie rozstrzygających co jest, a co nie jest nauką.

Feyerabend używa terminu „kontrindukcjonizm” zarówno w stosunku do:

(a) teorii konfirmacji, czyli potwierdzenia w klasycznym indukcyjnym sensie – tzw. sprawdzania pozytywnego – drogą wskazania jak największej liczby, jak najbardziej różnorodnych przypadków potwierdzających;

(b) jaki i teorii koroboracji, czyli potwierdzenia poprzez negatywny wynik prób obalenia (wykazania fałszywości – negatywnego wyniku eksperymentu falsyfikującego – „okazania hartu” przez obalaną teorię) – tzw. sprawdzania negatywnego.

Krytyka falsyfikacjonizmu Poppera

Swój stosunek do naiwnej i wyrafinowanej wersji falsyfikacjonizmu wyraża Feyerabend następująco.

Uzyskane dotąd wyniki – ma tu on na myśli przedstawiony przez siebie materiał faktograficzny – sugerują bezzasadność odróżnienia kontekstu odkrycia i kontekstu uzasadniania, norm i faktów, terminów obserwacyjnych i terminów teoretycznych. Żadna z tych dystynkcji nie ma znaczenia w praktyce naukowej, a próby narzucenia ich przyniosłyby katastrofalne skutki. „Krytyczny racjonalizm” Poppera jest nie do utrzymania z tych samych powodów.

Jeśli chodzi o kontekst odkrycia i kontekst uzasadnienia stanowisko Feyerabenda przedstawia się następująco. Krytyczny racjonalizm (jak również wcześniejsze metodologie) stwierdza, że odkrycie może być irracjonalne i na ogół nie jest wynikiem stosowania jakiejś powszechnie ważnej metody. Zaś jego uzasadnienie lub krytyka rozpoczyna się dopiero po odkryciu i przebiega w sposób uporządkowany, zgodnie z określonymi regułami. Feyerabend nie neguje, że taki stan rzeczy ma faktycznie miejsce, stawia jednakże następujące pytanie.

(…) w jakim stopniu dokonany rozbiór oddaje realną różnicę i czy nauka może się rozwijać bez konfrontacji wzajemnie oddziałujących autonomicznych dziedzin?

Bezwzględna wierność regułom, czyli ścisłe stosowanie metod krytycyzmu i dedukcji, co składa się na kontekst uzasadnienia, doprowadziłaby, stwierdza, do unicestwienia nauki. Z faktu, że nauka nadal istnieje wyciąga wniosek, że zalecenia metod fundujących kontekst uzasadnienia często naruszano.

Różnicę pomiędzy konfirmacją a korroboracją uważa Feyerabend za nieistotną, ponieważ obydwie procedury sprowadzają się do prób potwierdzania. Rozwój nauki zgodnie z tymi standardami, nakazującymi również zwiększanie treści empirycznej teorii, rezygnację z teorii, która sprzeczna jest z twierdzeniami bazowymi, zakazującej wprowadzania hipotez ad hoc, przebiega od pojawienia się jakiegoś problemu wynikającego z konfliktu pomiędzy oczekiwaniem a obserwacją będącą konsekwencją tego oczekiwania. Problem zostaje postawiony i przychodzi czas na jego rozwiązanie, czyli zaproponowanie teorii związanej z tym problemem. Teoria ta musi być falsyfikowalna lecz jeszcze nie sfalsyfikowana. Jej falsyfikowalność musi być wyższa od jej ewentualnej konkurentki. Kolejnym krokiem jest krytyka zaproponowanej teorii. Jeśli krytyka ta jest udana, to obala raz na zawsze nowo zaproponowaną teorię, tym samym stwarzając kolejny problem. Jest nim potrzeba wyjaśnienia dwóch kwestii: (a) dlaczego sfalsyfikowana teoria była dotąd zadowalająca oraz (b) dlaczego poniosła fiasko.

Wyjaśnienie tych kwestii powoduje potrzebę sformułowania nowej teorii, zgodnej ze starą w tych kwestiach, w których stara nie została obalona i jednocześnie zaprzeczającej jej błędom, jak również wprowadzającej dodatkowe, niemożliwe na gruncie starej teorii, przewidywania. Tym właśnie sposobem ma się dokonać przejście od mniej ogólnej do bardziej ogólnej teorii przy jednoczesnym poszerzeniu treści empirycznej wiedzy. Pyta on:

W tym miejscu postawić można dwa pytania.

Czy życie zgodne z regułami krytycznego racjonalizmu jest pożądane?

Czy możliwe jest, abyśmy mięli do dyspozycji zarówno naukę w znanej nam dzisiaj postaci, jak i owe reguły?

Feyerabend stwierdza, że pytanie pierwsze jest o wiele ważniejsze o pytania drugiego. Genezę i konsekwencje płynące z krytycznego racjonalizmu, będące odpowiedzią na postawione przez siebie pytanie, ujmuje następująco:

Krytyczny racjonalizm zrodził się w nawiązaniu do problemu postawionego przez Hume’a i do rewolucji Einsteinowskiej, a potem objął politykę, a nawet zachowanie w życiu prywatnym. Taka procedura może zadowalać filozofa akademickiego, który patrzy na życie przez okulary swych problemów technicznych i poznaje nienawiść, miłość, szczęście jedynie o tyle, o ile przejawiają się one w tychże problemach. Jeśli jednak rozważamy ludzkie potrzeby, nade wszystko zaś kwestię ludzkiej wolności (wolności od głodu, rozpaczy, tyranii niedrożnych systemów myślenia, a nie akademicką „wolność woli”), wówczas postępowanie takie jest najgorsze z możliwych.

Życie zgodne z regułami krytycznego racjonalizmu powodowało będzie, że dominującym w kulturze stanie się podejście obiektywne, które przyniesie ludziom szkodę, zamieni ich bowiem we wrogo (krytycznie) do siebie nastawione mechanizmy pozbawione tak wdzięku jak i poczucia humoru.

Negatywnej odpowiedzi na pytanie drugie udziela w oparciu o swoją tezę, że konkretyzacja standardów krytycznego racjonalizmu w rzeczywistej praktyce badawczej nastręcza jednak wiele problemów. Po pierwsze, czy faktycznie rozwój nauki rozpoczyna się od jakiegoś problemu wynikającego z konfliktu pomiędzy oczekiwaniem a obserwacją będącą konsekwencją tego oczekiwania? To znaczy, czy faktycznie początkiem nauki jest jakaś forma krytycznej argumentacji? Feyerabend stwierdza, że często w nauce pojawiają się takie okoliczności kiedy ten rodzaj argumentacji traci swój stymulujący dla rozwoju wiedzy charakter. Formy argumentacji (takie jak argumentacja krytyczna, perswazja, groźba, przymus czy propaganda) są historycznie zmienne i zależą w znacznej mierze od konkretnej sytuacji zaistniałej w kulturze. Wyraża to następująco:

Nawet najbardziej purytański racjonalista będzie wówczas zmuszony zaniechać rozumowania i posłużyć się propagandą oraz przymusem nie dlatego, że pewne jego racje przestały być prawomocne, lecz ze względu na to, iż zniknęły warunki psychologiczne, w których stanowiłyby one skuteczne środki wpływania na innych. A cóż to za pożytek z argumentu, który nie porusza ludzi?

Drugim argumentem Feyerabenda jest to, że konsekwentny falsyfikacjonizm doprowadziłby naukę do upadku. Wyraża to tak.

Nie ma takiej teorii, która byłaby zgodna ze wszystkimi faktami ze swej dziedziny, a jednak to nie zawsze teoria jest temu winna. Fakty są ustanawiane przez dawniejsze ideologie, a zaistnienie konfliktu pomiędzy faktami a teoriami może świadczyć o postępie.

Mówi on o dwóch rodzajach niezgodności zachodzącej pomiędzy faktem a teorią: (a) niezgodności liczbowej oraz (b) fiasku jakościowemu, czyli niezgodności teorii z łatwo zauważalnymi faktami. W pierwszym przypadku pewne liczbowe przewidywania teorii przekraczają dopuszczalny margines błędu. W takiej sytuacji uczeni z reguły rozwiązują problem odkrywając dokładniejsze liczbowe przybliżenia, które nie zmuszają do korekty samej teorii. W drugim przypadku stosuje się takie procedury, które dla krytycznego racjonalisty są nie do przyjęcia, ad hoc przyjmując niezbędne założenia.

Najwyraźniejszym przykładem doraźnego rozwiązania fiaska jakościowego jest dla Feyerabenda teoria niezmiennej jedni Parmenidesa. Uniemożliwiała ona zmianę, pomimo jej ewidentnego ujmowanego zmysłami istnienia, jako zachodzącą od bytu do niebytu, z racji na to, że niebyt nie istnieje, co pociąga za sobą niemożliwość różnicowania się bytu. Logiczna argumentacja, wbrew świadectwu zmysłów wykazała, że zmiana jest jedynie złudzeniem.

Kolejnym przykładem jakim posługuje się Feyerabend jest newtonowska teoria barw, w ramach której światło składa się z promieni o różnym stopniu załamania, charakteryzujących się bardzo małymi poprzecznymi przekrojami. Jednakże jeśli światło składa się z promieni, to – wziąwszy pod uwagę to, iż powierzchnia luster jest o wiele bardziej chropowata niż poprzeczny przekrój promieni – lustro powinno zachowywać się jak nierówna powierzchnia, czyli z wyglądu być podobnym do muru. Trudność tą wyeliminował Newton przyjmując hipotezę ad hoc, w ramach której na odbicie promienia nie wpływa pojedynczy punkt odbijającego ciała, lecz pewna dyspozycja owego ciała rozłożona równomiernie do jego całej powierzchni. O współczesnej nauce pisze Feyerabend następująco.

Współczesna fizyka matematyczna obfituje w aproksymacje ad hoc… W większości przypadków nauka współczesna jest o wiele mniej klarowna i znacznie bardziej zwodnicza, niż kiedykolwiek były jej XVI – i XVII-wieczne poprzedniczki… gdziekolwiek spojrzymy, mając dość cierpliwości, aby w nieuprzedzony sposób wybrać materiał faktyczny, stwierdzamy, że nasze teorie nie tylko zawodzą w zakresie uzyskiwania wyników jakościowych, lecz także okazują się w zdumiewającym stopniu jakościowo niekompletne. Nauka dostarcza niezwykle pięknych i wyrafinowanych teorii. Współczesna nauka rozwinęła struktury matematyczne, które pod względem ogólnej spójności oraz empirycznych osiągnięć przewyższają wszystko, co dotąd istniało. Aby jednak osiągnąć ten cud, należało wszystkie istniejące trudności zepchnąć na kwestię relacji między teoria a faktem i ukryć je za pomocą hipotez ad hoc, aproksymacji ad hoc i innych procedur.

Przy takim stanie rzeczy, stwierdza dalej, postulat nakazujący negatywną ocenę teorii na podstawie jej niezgodności z twierdzeniami bazowymi, jak również wszelkie teorie konfirmacji i korroboracji stają się pozbawione sensu. Współczesny mu stan metodologii określa następująco:

Metodolodzy mogą wskazywać na ważność falsyfikacji – a mimo to radośnie posługują się sfalsyfikowalnymi teoriami… W praktyce niewolniczo powtarzają najnowsze oświadczenia grubych ryb w dziedzinie fizyki, chociaż, czyniąc to, muszą łamać niektóre z najbardziej podstawowych reguł swego fachu.

Wymóg, konkluduje dalej Feyerabend, aby akceptować jedynie te teorie, które są zgodne z faktami doprowadziłby do tego, że pozostalibyśmy bez żadnej teorii.

Trzecim argumentem Feyerabenda jest to, że wymóg zwiększonej treści empirycznej również nie jest spełniany. Nowa teoria, zastępująca starą i dobrze ugruntowaną, początkowo ogranicza się do jakiejś wąskiej dziedziny faktów i zjawisk ją potwierdzających. Dzieje się tak dlatego, że proponując nową teorię odstępuje się od materiału faktycznego, ponieważ obserwacje są dla niej nowym problemem, który dopiero musi wyjaśnić. Z tego to powodu tworzący się aparat pojęciowy nowej teorii określa jedynie swoje własne problemy i obserwacje, zaś obserwacje teorii wcześniejszej albo popadają w zapomnienie, albo zostają pominięte jako nieistotne, albo potraktowane jako zbędny balast, który teoria musiałaby wyjaśnić bez żadnych korzyści dla siebie samej. Jeśli jednak nowa teoria zwraca się w stronę teorii starej na ogół robi to w następujący sposób:

W tych wypadkach, gdzie rzeczywiście zwracają one uwagę na poprzednie teorie, próbują dostosować ich bazę faktualną… za pomocą hipotez ad hoc, aproksymacji ad hoc, przedefiniowanie pojęć, lub po prostu przez stwierdzenie, bez dogłębniejszego zbadania sprawy, że fakty owe „wynikają” z nowych podstawowych zasAd. Zasady krytycznego racjonalizmu, konkluduje Feyerabend, są zatem nieadekwatne względem obecnego obrazu nauki, przez co mogą zahamować jej rozwój, który jest o wiele bardziej niechlujny i irracjonalny. Różnice pomiędzy autentyczną nauką a metodologią wskazuje na słabość metodologii, ponieważ to, co w ramach metodologii jest niechlujne i irracjonalne okazuje się mieć fundamentalne znaczenie dla rozwoju samej nauki.

Odpowiedź Poppera na krytykę ze strony uhistorycznionej filozofii nauki

Popper nigdy nie przyjął wprost krytyki ze strony uhistorycznionej filozofii nauki. Nietrudno jednak zauważyć, że jego filozofia począwszy od drugiej połowy lat sześćdziesiątych przeszła istotne przeobrażenia. Jego krytyczny racjonalizm nie jest już metodologia, staje się epistemologią, dla której podstaw szuka on w metafizyce. Zwrot ten można za Skolimowskim nazwać metafizycznym okresem twórczości Poppera. Swój falsyfikacjonizm, który był istotą krytycznego racjonalizmu zastępuje on, pod wpływem krytyki Kuhna i Feyerabenda, odmiennym modelem wiedzy – i odmiennymi standardami racjonalności. W jego filozofii pojawia się nowy sposób uprawomocniania poznania teoretycznego – Popper odwołuje się do innych niż falsyfikowalność standardów racjonalności: do rozstrzygnięć natury metafizycznej. A wszystko to w jednym celu: aby uprawomocnić swój schemat rozwoju wiedzy, o którym przypuszcza, że jest uniwersalnym schematem rozwoju wiedzy ludzkiej.

Wprowadzając swoją koncepcję metafizyki trzech światów, inaczej nazywaną epistemologią bez podmiotu poznającego, zachowuje Popper w niezmienionej postaci swój schemat rozwoju wiedzy jako przechodzenia od problemu, drogą zaproponowania teorii próbnej i eliminacji błędu, do następnego problemu. Pociąga to za sobą następujące pytanie: na jakiej podstawie dokonać można eliminacji błędu nie wspominając nic o konkluzywnych falsyfikacjach? Najpoważniejsze zarzuty przedstawić można następująco:

Henryk Skolimowski zauważa, że stanowisko Poppera w tej kwestii jest niespójne.

Nawiasem mówiąc, zaobserwować można, że Popper nie jest do końca konsekwentny. Z jednej bowiem strony, zdaje się on uzasadniać prawomocność nauki oraz jej racjonalność odwołując się do autonomii trzeciego świata, z drugiej zaś strony, cofa się ku swemu wcześniejszemu kryterium racjonalności jako intersubiektywnemu krytycyzmowi, czyli ku uogólnionej odrzucalności… Popper… stale oscyluje pomiędzy dwoma uzasadnieniami obiektywności nauki (a pośrednio jej racjonalności, choć w widoczny sposób unika tego terminu), to jest pomiędzy starym, metodologicznym uzasadnieniem: intersubiektywną krytykowalnością, oraz nowym, metafizycznym uzasadnieniem: autonomią bytów trzeciego świata.

Eliminacja błędu to adekwatne, jednakże, zapytać wypada, w oparciu o jakie kryteria, uchwycenie autonomicznych bytów świata trzeciego. Stefan Amsterdamski ujmuje problem nieco odmiennie.

W pierwszym więc przypadku przedmiot teorii rozwoju wiedzy rozumiany jest jako zespół reguł postępowania badawczego, w drugim zaś – jako zespół relacji zachodzących między gotowymi strukturami; w pierwszym teoria ta jest (choćby i wyidealizowanym) schematem rzeczywistych zachowań poznawczych, w drugim zaś o zachowaniach nic nie mówi. Odpowiednio do tego w pierwszym przypadku racjonalność rozwoju nauki ugruntowana jest w racjonalności procedur stosowanych przy akceptacji i odrzuceniu teorii, a więc w racjonalności możliwych ludzkich zachowań poznawczych, natomiast w drugim – w logicznych relacjach między gotowymi strukturami teoretycznymi…

W perspektywie Amsterdamskiego pytanie o eliminację błędu przekształca się w pytanie o możliwość uchwytywania logicznych relacji pomiędzy określonymi strukturami teoretycznymi, ale problem pozostaje ten sam: co stanowi podstawę eliminacji błędu przy uchwytywaniu logicznych relacji? Sam Popper ujmuje problem następująco.

Rozwój wiedzy – czyli proces uczenia się – nie odbywa się poprzez powtarzanie czyli kumulację, ale poprzez eliminację błędów. Jest to raczej darwinowski dobór naturalny niż lamarckowski proces formowania.

Eliminacja błędu miałaby być zatem wyrazem doboru naturalnego, gdzie bardziej przystosowany zwycięża przed słabiej przystosowanym. Jednakże problem pozostaje wciąż ten sam: która teoria jest bardziej przystosowana?

Ponumerowane światy Poppera

Światy, jakie wyróżnił Popper są następujące: świat pierwszy (first world lub World 1 jak go dla odmiany nazywa) to świat przedmiotów lub stanów fizycznych. Świat drugi (second world lub World2) jest światem stanów psychicznych, stanów świadomości lub behawioralnych dyspozycji do zachowania. Zaś świat trzeci (third world lub World3) jest światem obiektywnych treści myśli naukowej, poetyckiej i dzieł sztuki. Ujmuje to Popper tak.

Terminy „Świat1”, „Świat2”, oraz „Świat3” świadomie tak zostały wybrane aby były bezbarwne i niearbitralne. Istnieje również historyczny powód dla ponumerowania ich jako 1, 2 i 3: wydaje się bowiem, że świat fizyczny istniał zanim pojawił się świat zwierzęcych odczuć. Przypuszczam również, że Świat3 pojawił się dopiero wraz z ewolucją specyficznie ludzkiego języka.

O ile rozróżnienie Świata 1 i Świata2 nie budzi większych emocji, chociażby ze względu na fakt, że mieszkańcami tego pierwszego są jestestwa przestrzenno-czasowe, a tego drugiego tylko czasowe, w których realność nikt nie wątpi, to problem realnego istnienia jestestw Świata3, co najmniej od czasów Platona budził kontrowersje.

Popper, jak już zostało wspomniane, utrzymuje, że Świat3 istnieje realnie, w sensie obiektywnym. Przyjrzyjmy się jego argumentom. Świat3, który możemy nazwać światem kultury ludzkiej ponieważ składają się na niego mity, narzędzia, teorie naukowe (zarówno fałszywe jak i prawdziwe), problemy i sytuacje problemowe, argumenty krytyczne, świat dzieł sztuki, instytucje społeczne i wszystko inne co jest produktem ludzkiego umysłu; w swym pochodzeniu jest naturalnym produktem zwierzęcia ludzkiego.

Dzięki interakcji pomiędzy człowiekiem a jego wytworem jakim jest Świat3 rozwija się wiedza obiektywna. Jej rozwój jest analogiczny do rozwoju biologicznego – do ewolucji roślin i zwierząt. Wszelka wiedza w ewolucyjnej perspektywie Poppera jest historyczną modyfikacją wiedzy uprzednio uzyskanej. Wynikiem adaptacji do środowiska jest samoświadomość, której podstawową biologiczną funkcją jest tworzenie Świata3 oraz jego rozumienie. Jako ludzki wytwór Świat3 dziełem jego aktywności, lecz dziełem wielce specyficznym, ponieważ przekracza on swoich twórców. Jest zatem, jak stwierdza Popper, nadludzki w tym sensie, że treści tego świata są raczej potencjalnymi niż aktualnymi przedmiotami myśli. Rozwija się poprzez odkrywanie w nim autonomicznych problemów, których wcześniej nie zauważono. Mamy tu do czynienia ze sprzężeniem zwrotnym, charakteryzowanym przez Poppera następująco:

(…) język ludzki, a wraz z nim spore części trzeciego świata, są niezaplanowanymi wytworami ludzkich działań, są reakcjami na biologiczne i inne problemy… nawet liczby naturalne są dziełem ludzkim… Ale jeszcze bardziej interesujący jest fakt, że z istnienia ciągu liczb naturalnych powstają nowe nieoczekiwanie oraz niezamierzone problemy, na przykład nierozstrzygnięte problemy teorii liczb pierwszych (hipoteza Goldbacha). Problemy te są autonomiczne. Nie stworzyliśmy ich lecz odkryliśmy je i w tym sensie istnieją, zanim je odkryto… Dlatego trzeci świat, który w swym pochodzeniu jest naszym dziełem, jest autonomiczny, gdy idzie o jego status ontologiczny.

To, co do tej pory zostało powiedziane nie świadczy jeszcze w przekonujący sposób o ontologiczej autonomiczności Świata3. Powiedzieć przecież można, że to, co nazywa Popper autonomicznym światem istnieje wyłącznie dzięki swym materialnym nośnikom. Dla obrony realnego istnienia Świata3 używa on następujących trzech grup argumentów:

pierwszym argumentem są następujące dwa eksperymenty myślowe:

Eksperyment (1). Wszystkie maszyny i narzędzia uległy destrukcji, jak również cała nasza wiedza subiektywna, wraz z subiektywną wiedzą o maszynach i narzędziach oraz o metodach posługiwania się nimi. Ale biblioteki oraz nasza umiejętność uczenia się z nich przetrwała. Oczywiście, po wielu cierpieniach odbudowalibyśmy znowu nasz świat…

Eksperyment (2). Jak poprzednio, zniszczeniu uległy maszyny oraz nasza wiedza subiektywna wraz z wiedzą subiektywną o maszynach i narzędziach, oraz sposobach posługiwania się nimi. Tym razem jednak zniszczone zostały również wszystkie nasze biblioteki, tak że nasza umiejętność uczenia się z książek staje się bezużyteczna… W przypadku drugiego eksperymentu bowiem nie doszłoby do rekonstrukcji naszej cywilizacji przez wiele tysiącleci.

Jak łatwo zauważyć ten argument Poppera jest obusieczną bronią. Z jednej bowiem strony wskazuje na fundamentalną rolę uniwersum znaczeń wyznaczających kształt kultury. Jest więc w pewnym sensie potwierdzeniem jego tezy o autonomii Świata3, niemniej jednak z drugiej strony wskazuje, chyba w sposób niezamierzony, na konieczność istnienia materialnego nośnika dla znaczeń, co dość jasno zaprzecza ontologicznej autonomii Świata3.

Drugą grupę argumentów stanowią dla Poppera dziedziny matematyki i nauk przyrodniczych, na które powołuje się zarówno w Wiedzy obiektywnej jak i w The Self and Its Brain. Tego typu argumenty wydają się być bardziej przekonywające. Wskazuje on w nich na trudności w redukowaniu Świata3 do Świata2. Pojawia się bowiem problem istnienia obiektywnych relacji (typu sprzeczność, niesprzeczność, wzajemna dedukowalność, częściowa zgodność lub niezgodność, itp., które nie są zamierzonym rezultatem ludzkiej działalności) pomiędzy teoriami naukowymi. W takim przypadku przy próbie redukcji Świata3 do 2, pytanie o pochodzenie owych relacji zdaje się być niewytłumaczalne. Przykładem ilustrującym problem może być rozprawa Fregego Grundgesetze, w której Bertrand Russell odkrył sprzeczności. O owych sprzecznościach pisze Popper następująco:

Frege jej nie zauważył: nie istniała zatem „w jego umyśle”… Russell nie wynalazł ani nie wytworzył owej sprzeczności, lecz ją odkrył.

Wyciąga z tego Popper wniosek, że w Świecie3 możemy odkrywać problemy, które w nim tkwiły zanim ktokolwiek zwrócił na nie uwagę. Mówi wręcz, że w Świecie3 możemy dokonywać odkryć teoretycznych w takim samym sensie jak w Świecie1 dokonywać odkryć geograficznych.

O autonomii Świata3 świadczy jeszcze i to, że raz wyprodukowane przez człowieka teorie, hipotezy (i inne obiekty Świata3) zaczynają żyć swoim własnym życiem, ponieważ wytwarzają uprzednio nieznane konsekwencje i nowe problemy. Innymi słowy mówiąc, przedmioty Świata3 powodują to, że człowiek wytwarza inne przedmioty w tym samym świecie, oraz w Świecie3.

Trzecim argumentem na rzecz autonomii Świata3 jest wyjaśnienie istnienia wyższych funkcji języka. Język ludzki w opinii Poppera należy do wszystkich trzech światów. Należy do Świata1 gdy składa się z działań lub symboli fizycznych, gdy wyraża stany psychiczne należy do Świata2, jednak gdy język wyraża znaczenia, które pociągają za sobą inne znaczenia, wtedy należy do Świata3. Najważniejszymi bytami językowymi składającymi się na trzeci świat są teorie i twierdzenia.

Za Karlem Bühlerem Popper wyróżnia dwie funkcje języka: (a) ekspresyjną, (b) sygnalizacyjną. Do tych dwóch dodaje jeszcze dwie: (c) deskryptywną i (d) argumentacyjną. Każdy, w opinii Poppera, kto przeczy autonomii Świata3, musi zredukować dwie wyższe funkcje (c i d – charakterystyczne tylko dla człowieka) do dwóch niższych (a i b – charakterystycznych tak dla zwierząt jak i dla człowieka). To zaś pociąga za sobą trudności wytłumaczenia dlaczego tylko człowiek posługuje się zdaniami prawdziwymi i fałszywymi, używa poprawnych i niepoprawnych argumentów, oraz dlaczego tylko człowiek potrafi używać zdań i pojęć abstrakcyjnych, wypowiadanych bez konieczności użycia ich w konkretnej sytuacji, do której miałyby się odnosić.

Wraz z dwoma wyższymi funkcjami języka, stwierdza Popper, stworzył człowiek nowy rodzaj cywilizacji – nowy świat niegenetycznego rozwoju, który nie jest przekazywany drogą kodu genetycznego i który nie jest aż tak bardzo zależny od selekcji naturalnej, jak od selekcji zależnej od racjonalnego krytycyzmu.

W jaki sposób istnieje Świat3? Wypowiedzi Poppera typu „uniwersum treści myśli”, „myśl w sensie obiektywnym”, „obiektywne standardy prawdziwości” sugerują niedwuznacznie pewną wersję platonizmu. Jeśli owe standardy nie są tylko naszymi subiektywnymi aktami sądzenia, albo znakami widocznymi dzięki swym materialnym nośnikom, to pojawia się pytanie czym one są? Popper udziela następujących odpowiedzi:

Czy istnieją bezcielesne obiekty Świata3? Obiekty, które nie są ucieleśnione pod postacią książek, czy płyt gramofonowych…? Sądzę, że pytanie jest doniosłe i że odpowiedź na nie brzmi „tak”.

Sugerowałbym, że zamiast mówić, iż Świat3 zakodowany jest w mózgu, powiedzieć można, że pewne obiekty Świata3 są w mózgu zarejestrowane i tym sposobem, jak się zdaje, ucieleśnione. Świat3 jako całość nie istnieje nigdzie; istnieją tylko pewne indywidualne obiekty Świata3, które niekiedy są ucieleśnione a przez to dające się zlokalizować.

(…) obiekt Świata3 jest realnym idealnym obiektem który nie istnieje nigdzie, a którego istnienie jest pewną potencjalnością bycia zreinterpretowanym przez umysły ludzkie… Świat3 jest rodzajem platońskiego świata idei, świata który nigdzie nie istnieje, lecz który posiada egzystencję i może oddziaływać, zwłaszcza z umysłami ludzkimi – oczywiście na bazie ludzkiej aktywności.

(…) podkreślając istnienie obiektów Świata3 nie sądzę aby istniały esencje; czyli nie przypisuję żadnego statusu obiektom czy odpowiednikom naszych pojęć lub znaczeń. Spekulacje co do prawdziwej natury czy prawdziwej definicji dobra czy sprawiedliwości, prowadzą w mojej opinii do słownych kalamburów i powinny być unikane. Jestem przeciwnikiem tego, co nazwałem esencjalizmem.

Obiekty Świata3 są abstrakcyjne (nawet bardziej niż fizyczne siły), lecz nie mniej realne: stanowią one bowiem potężne narzędzia zmieniania Świata1.

(…) Świat3 nie jest ani teorią ani twierdzeniem ani nawet argumentem: jest on klasą rzeczy, uniwersum dyskursu.

Na podstawie powyższych cytatów jedno tylko powiedzieć można z całą pewnością. Świat3 pozbawiony jest czasoprzestrzennej lokalizacji. Wydaje się zatem być bardziej podobnym do rickertowskiego trzeciego królestwa sensu niż do platońskiego świata idei, czy heglowskiej sfery ducha obiektywnego, do których to przyrównuje Popper swoją koncepcję:

W przeciwieństwie do Platona i Hegla uważam próbne teorie o świecie, hipotezy wraz z ich konsekwencjami logicznymi, za najistotniejszych obywateli świata idei. Nie uważam jak sądził Platon, że ich zagadkowo ponadczasowy charakter czyni je wiecznymi, a przez to jakby bardziej realnymi rzeczami od przedmiotów stworzonych, zmiennych, podlegających upadkowi. Przeciwnie, rzecz, która może ulec zmianie i zniknąć, powinna z tej właśnie przyczyny być uważana za prima facie realną.

Tak długo jak myślimy, stwierdza Popper, myśl nie może być obiektywnie krytykowalna, ponieważ jest częścią nas samych. Aby można ją było krytykować musi ona stać się obiektem – przedmiotem Świata3. Dlatego właśnie, argumentuje dalej, powinniśmy jasno oddzielić od siebie subiektywne procesy myślowe (należące do Świata3) oraz obiektywną zawartość myśli, zawartość samą w sobie, która konstytuuje Świat3. Umysł jest podstawowym narzędziem służącym do ujmowania bezcielesnych obiektów Świata3. Należy tylko odpowiedzieć na pytanie jak tego dokonuje. Główny powód, dla którego przyjmuje Popper istnienie bezcielesnych obiektów Świata3 jest następujący. Jeśli takie obiekty istnieją, to nie jest prawdziwą doktryna utrzymująca, że nasze ich uchwytywanie lub rozumienie uzależnione jest zawsze od naszego zmysłowego z nimi kontaktu. Wbrew temu poglądowi argumentuje Popper, że najbardziej charakterystycznym sposobem uchwytywania obiektów Świata3 jest metoda, której skuteczność w małym stopniu zależy od zmysłowego kontaktu z obiektami. Umysł ludzki uchwytuje owe obiekty niezależnie od zmysłowego z nimi kontaktu. Jest to proces aktywny, polegający na ich ponownym stwarzaniu. To ostatnie przebiega w następujący sposób. Celem zrozumienia jakiegoś problemu należy spróbować kilku oczywistych jego rozwiązań, po przekonaniu się, że nie przynoszą one sukcesu następuje jego ponowne odkrycie – uświadomienie sobie, że mamy do czynienia z autentycznym problemem. W procesie odkrywania problemu, będącego mieszkańcem Świata3, najpierw problem ten uchwytujemy bardzo mgliście, zaledwie podejrzewamy jego istnienie, zanim sformułowany zostanie w języku. Wyraża to następująco:

(…) uczymy się, nie przez bezpośrednią wizję lub kontemplację, lecz drogą praktyki, aktywną partycypacją jak tworzyć obiekty Świata3, jak je rozumieć, oraz jak je „widzieć”.

Rozumienie jest aktywnym procesem, nie zaś po prostu procesem, który się rozpoczyna i oczekuje na oświecenie. Można powiedzieć, że proces rozumienia oraz proces aktualnego tworzenia czy odkrywania obiektów Świata3 są do siebie bardzo podobne. Obydwa mają czynny charakter.

Popper odwołuje się tu do intuicji intelektualnej nawiązując do rozwiązań Platona, Plotyna, Kanta, Brouwera [[1]] i Whorfa.

Platon opisywał ujmowanie idei jako pewnego rodzaju wizję – nasze intelektualne oko (nous, rozum, oko duszy) obdarzone jest intuicją intelektualną, dzięki której oglądać może bezpośrednio, w świetle prawdy, idee – istoty rzeczy, przynależące do świata intelligibiliów. Owa intuicja intelektualna, o ile raz zostanie osiągnięta, jest nieomylna. Rozwiązanie Platona jest o tyle dobre, że wyjaśnia w jaki sposób ujmujemy intelligibilia. Wiele trudności na gruncie tego rozwiązania przynosi nam próba wyjaśnienia jak to się dzieje, że nie zawsze ujmujemy idee adekwatnie. Jedynym rozwiązaniem jakie mógł w tej sytuacji dać Platon było stwierdzenie, że ten kto się myli owej intuicji nie osiągnął. Episteme była zatem tylko dla wybrańców.

Z takim rozwiązaniem Popper zgadza się jedynie częściowo, przyjmując istnienie intuicji intelektualnej. Zaprzecza jednak, iżby była ona nieomylna, mówi wręcz, że częściej się ona myli niż ujmuje coś adekwatnie. Nie zgadza się również z sugestią Platona, że mamy coś takiego jak organ zmysłu intelektualnego. Zamiast niego osiągnęliśmy zdolność, coś w rodzaju organu, do argumentowania i rozumowania. Łatwiej jest, stwierdza on, zrozumieć jak tworzymy obiekty Świata3, niż jak (za pomocą jakiej władzy) je ujmujemy czy też widzimy. Dlatego stwierdza, że woli wyjaśniać przedmioty świata trzeciego w terminach ich tworzenia lub odtwarzania.

Ujmowanie przedmiotów Świata3 jest procesem aktywnym. Polega on na próbach zrozumienia i rozwiązania najlepiej jak potrafimy danego problemu. O intuicji możemy mówić tu w tym sensie, że wiemy, że czujemy, iż jesteśmy na tropie rozwiązania danego problemu. Tego typu intuicja nie jest żadnym okiem umysłu, żadnym mentalnym organem percepcji. Suponuje ona jedynie naszą zdolność do tworzenia określonych przedmiotów Świata3, przede wszystkim obiektów lingwistycznych. Zdolność ta, jak stwierdza Popper, jest jedynie wynikiem określonej praktyki. Jako wynik praktyki i twór ewolucji jest ona omylna. Tak jak uczymy się, metodą prób i błędów jako dzieci, rozróżniać przedmioty fizyczne, tak samo uczymy się ujmować przedmioty świata trzeciego. W tym ostatnim przypadku proces uczenia się nie ma charakteru naturalnego, jest on procesem kulturowym i społecznym.

Kroki, które naprowadziły Poppera na takie pojmowanie intuicji zrekonstruować można następująco. Plotyn jako jeden z pierwszych zwrócił wyraźnie uwagę na kontrast pomiędzy intuicją a dyskursem. Intuicja była bezpośrednim (boskim) sposobem na poznanie wszystkiego od razu, w jednym olśnieniu, nieomylnie, bezczasowo. Dyskurs nie jest już tak perfekcyjnym sposobem. Tu potrzebna jest mozolna praca, krok za krokiem ku określonemu celowi.

Ślady tego myślenia widać u Kanta. Umysł nasz posługiwać się musi logiką, jest więc dyskursywny. Logika zaś jest treściowo pusta – ma charakter analityczny. Dlatego też pojęcia jakimi się posługujemy są puste, o ile nie zostaną odniesione do jakiegoś materiału, danego nam zmysłowo, mówimy wtedy o intuicji zmysłowej. Pojęcia te możemy również odnieść do czystej intuicji czasu i przestrzeni i tym sposobem uzyskać wiedzę syntetyczną a priori. Intuicja czysta jest pierwotna wobec zmysłowej, ponieważ zmysły nie mogą wykonać swego zadania nie włożywszy swych postrzeżeń w absolutną strukturę przestrzeni i czasu. Owa absolutna struktura gwarantowała absolutną obowiązywalność matematyki i geometrii. Ich aksjomaty ujmowane miały być w jakiś, bliżej nieokreślony, pozazmysłowy sposób.

Popper zwraca w tym miejscu uwagę na bardzo istotną trudność kantowskiej teorii źródeł wiedzy matematycznej. Nie chodzi tu o jej aprioryczny charakter, ale o rzecz wiele bardziej prozaiczną – nie da się zaprzeczyć, że matematyka opiera się na dyskursywnym myśleniu.

Nikt nie może zaprzeczyć, że geometria Euklidesa posługuje się dedukcją logiczną. Od twierdzenia do twierdzenia przechodzi się tam krok po kroku. Mamy więc tu do czynienia ze sprzecznością, o ile z geometrii i matematyki wyłączymy, co zrobił Kant, dyskurs logiczny.

Filozofujący matematyk L.E.J. Brouwer trudności Kanta rozwiązał w sposób następujący. Zaproponował teorię dotyczącą stosunku matematyki do języka i logiki. Sednem jego koncepcji jest wyraźna dystynkcja pomiędzy matematyką a jej językowym wyrazem. Ta pierwsza jest działalnością pozajęzykową, polegającą na umysłowym konstruowaniu przedmiotów matematycznych w oparciu o czystą intuicję czasu. Tak wytworzone, dzięki naszej intuicji, przedmioty opisujemy w sposób językowy w celu ich zakomunikowania innym ludziom. Dopiero w tym momencie następuje element dyskursywny, który jest wtórny wobec czystej intuicji. Wprowadza więc Brouwer dwa poziomy w myśleniu matematycznym: pierwotny – intuicyjny, oraz wtórny – dyskursywny, istotny jedynie dla samego przekazu wiedzy matematycznej.

Intuicyjny charakter wiedzy matematycznej zostaje obroniony. Niestety, jak zauważa Popper, Brouwer w swych rozważaniach pomija fakt istnienia geometrii nieeuklidesowych, szczególną teorię względności, które jak wiadomo zachwiały nieomylnością kantowskiej intuicji, oraz rozważania B. L. Whorfa na temat Indian Hopi. Ci ostatni posługują się zupełnie inną niż europejska intuicją czasu. Konkluzja Whorfa jest następująca. Intuicja czasu zależna jest w znacznej mierze od języka – od teorii i mitów w nim zawartych. Konkluzja Poppera jest następująca:

Nie istnieją żadne autorytatywne źródła wiedzy, żadne źródło bowiem nie jest niezawodne. Wszystko jest mile widziane jako źródło inspiracji, także „intuicja”, zwłaszcza gdy nasuwa nam nowe problemy. Ale nic nie jest niezawodnym czy bezpiecznym źródłem, wszyscy jesteśmy omylni.

Przenosząc to na grunt uchwytywania obiektów Świata3 za Popperem powiedzieć można, że nie pociąga ono za sobą konieczności posiadania „oka umysłu” czy zmysłowego organu percepcji. Pociąga natomiast za sobą naszą zdolność do tworzenia lingwistycznych obiektów Świata3, która jest wynikiem praktyki – uczymy się jak coś zrobić robiąc to w określonych sytuacjach. Zwłaszcza poprzez kulturę. Uczenie się ma bowiem charakter kulturowy i społeczny.

Problem rozumienia a Świat3

Celem uprawomocnienia swojego metafizycznego modelu wiedzy Popper w rozprawach Epistemologia bez podmiotu poznającego i O teorii obiektywnego umysłu, stawia sobie za zadanie pokazanie jak powinna wyglądać epistemologia oraz humanistyka z obiektywistycznego punktu widzenia. W tej perspektywie jest ona teorią rozwoju wiedzy – teorią dyskusji, czyli konstrukcji, oceny lub krytycznego sprawdzania teorii konkurencyjnych.

Pomiędzy nauką a literaturą (dziełem naukowym a literackim), której ta pierwsza stanowi część, zachodzi istotna różnica. Nie polega ona na tym, że teoria naukowa realizowana jest ze względu na wartość prawdy a literatura nie, lecz na tym, że obydwie są elementami odmiennych tradycji krytycznych. Tradycja naukowa jest tradycją realistyczną, poszukując teorii korespondujących z faktami dokonuje ona wyraźnego oddzielenia świata teorii od świata faktów, co w literaturze nie jest zadaniem pierwszoplanowym.

Zadaniem epistemologii jest umożliwienie apriorycznej i aposteriorycznej oceny teorii naukowej. Ta pierwsza dokonuje się wyłącznie poprzez odniesienie teorii do zbioru istniejących już problemów. W tej perspektywie dokonać się ma ocena prostoty teorii, jej mocy eksplanacyjnej i zawartości przez pryzmat jej stopnia sprawdzalności. Aposterioryczna ocena teorii naukowej dokonać się ma przez odniesienie jej do idei prawdoupodobnienia. (Wszystkie te kategorie mają określony sens w perspektywie falsyfikacjonistycznej. Słowo falsyfikacja nie występuje ani razu w rozprawie Epistemologia bez podmiotu poznającego.) Ocena aposterioryczna teorii w znacznej mierze zależy od jej walorów będących konsekwencją oceny apriorycznej. Charakteryzując racjonalność postępu naukowego w The Self and Its Brain wskazuje Popper na dwa podstawowe jego wyznaczniki: (a) nowa teoria (lub hipoteza) musi rozwiązywać co najmniej tak samo dobrze, problemy, które rozwiązywała jej poprzedniczka, (b) powinna pozwalać na dedukcję przewidywań nie wynikających ze starej teorii, preferowane są tu przewidywania pozostające w sprzeczności z teorią starą, czyli takie, które umożliwiają eksperymenty krzyżowe. Jeśli teoria spełnia obydwa te warunki możemy mówić o jej potencjalnej postępowości, o wzroście prawdoupodobnienia. Potencja stanie się aktualizacją gdy eksperymenty krzyżowe rozstrzygną na rzecz nowej teorii. (Warto w tym miejscu odnotować fakt, że The Self… ukazało się w 1977 r. a więc w 13 lat po pojawieniu się tezy o niewspółmierności. W książce tej, jak również w dwóch rozprawach stanowiących sedno metafizyki Poppera – Epistemologia bez podmiotu poznającego i O teorii obiektywnego umysłu – wyraźnie Popper ignoruje rozstrzygnięcia Thomas Kuhna i Paul Feyerabenda.)

Zasadniczym problemem humanistyki, stwierdza Popper, jest problem rozumienia przedmiotów będących mieszkańcami Świata3. Tym czego dokonać może badacz jest określona interpretacja, będąca efektem subiektywnego, a przez to nie poddającego się intersubiektywnym analizom, procesu rozumienia. To właśnie interpretacje, pojmowane przez niego jako teorie zakotwiczone w innych teoriach, a przez to w Świecie3, badać chce Popper. Pomiędzy subiektywnym aktem rozumienia a Światem3 wyznacza Popper następujące relacje:

(1) Każdy subiektywny akt rozumienia jest w znacznej mierze zakotwiczony w trzecim świecie;

(2) Prawie wszystkie istotne spostrzeżenia dotyczące tych aktów polegają na wskazaniu ich związku z przedmiotami trzeciego świata;

(3) Akty te polegają przede wszystkim na operowaniu przedmiotami trzeciego świata. Działamy na tych przedmiotach prawie tak samo jak gdyby były to przedmioty fizyczne.

W chwili gdy zrealizowany zostanie subiektywny akt rozumienia rozpoczyna się proces jego analizy w terminach Świata3. Proces ten jest pewnym ciągiem aktów rozumienia wynikiem którego są nowe argumenty, czyli nowe przedmioty Świata3. Aktywność rozumienia sprowadza się do operowania przedmiotami-mieszkańcami Świata3.

Satysfakcjonujące rozumienie osiągane jest wtedy gdy określona interpretacja (teoria) znajdzie poparcie w faktach ze swej dziedziny, takich które analizowane problemy stawiają w nowym świetle, czyli albo ujawniają ich większą ilość niż początkowo przypuszczaliśmy albo wskażą na takie fakty, które wyjaśniają takie problemy, które wcześniej nie były dostrzeżone. Nie widzi Popper możliwości dokonania pełnego rozumienia. To ostatnie oznacza dla niego zrozumienie zarówno wszystkich konsekwencji logicznych wynikających z danej teorii, których jest nieskończenie wiele, jak też odniesienie interpretowanej teorii do wszystkich możliwych sytuacji, z jakimi może ona mieć związek:

Moja centralna teza głosi, że dowolna, intelektualnie istotna analiza aktywności rozumienia musi, przede wszystkim, jeśli nie całkowicie, postępować drogą analizy posługiwania się elementami i narzędziami trzeciego świata… jeżeli interesuje nas proces rozumienia, albo niektóre jego rezultaty, musimy opisać to, co robimy, co osiągamy, niemal całkowicie w terminach przedmiotów rozumienia, intelligibiliów, oraz ich wzajemnych relacji.

Sytuację problemową dla danej interpretacji tworzą analizowany problem oraz jego tło, czyli język zawierający w swojej strukturze znaczną ilość teorii, oraz przyjmowane milcząco na czas analizy rozmaite założenia teoretyczne. Relacja pomiędzy rozwiązaniem a problemem ma, zdaniem Poppera, charakter logiczny, powołując się na Lakatosa nazywa ją ciągiem problemowym, ponieważ stanowić ona może, o ile nie będzie rozstrzygnięciem analizowanego problemu, rozwiązanie dla jakiegoś innego problemu. Popperowski schemat rozwoju wiedzy (przypuszczeń i refutacji) ma się i do tego stosować. Wyraża to następująco:

(…) jednym z moich głównych twierdzeń jest przekonanie, że czyny, a więc i historię, można wyjaśnić jako rozwiązywanie problemów i że moja analiza w kategoriach schematu domysłów i obaleń… w pełni się do nich stosuje.

Nie wspomina jednak w tym miejscu na czym polegać miałaby eliminacja błędu, podając trywialny przykład mnożenia dwóch dość długich liczb, gdzie jako eliminacja błędu występuje kartka papieru, na której dokonuje się operacji algorytmicznych.

W innym miejscu schemat swój nazywa racjonalizacją, ponieważ funkcjonuje on w ramach klasycznego organonu logicznego krytycznego racjonalizmu, opierającym się na wymogu eliminacji sprzeczności. Świadome poszukiwanie sprzeczności jest krytyczną eliminacją błędów na poziomie naukowym. W naukach empirycznych logika służy do celów krytycznych, do obalania hipotez. Postęp, jaki dokonuje się w nauce, mierzyć można różnicą w głębi i nowości pomiędzy problemem od którego rozpoczęliśmy analizę (P1) a problemem jaki powstał w wyniku tej analizy (P2). Wyznacznikiem postępowości jest to, że nowy problem jest różny (ponieważ pociągał będzie za sobą nowe teoretyczne perspektywy) od starego.

Dla wszystkich dziedzin wiedzy, w których mamy do czynienia z rozumieniem formułuje Popper następującą tezę:

Twierdzę, że głównym problemem wszelkiego rozumienia historycznego jest hipotetyczna rekonstrukcja historycznych sytuacji problemowych.

Rekonstrukcja ta przebiega następującymi krokami. Rozpocząć należy od wyraźnego postawienia następującego pytania: Z jakim problemem mamy do czynienia, który próbuje rozwiązać dana teoria? Celem właściwej odpowiedzi na to pytanie należy postawić następujące: Jaka była logiczna sytuacja problemowa, w której powstał dany problem? W tym miejscu ujawnia się podstawowa funkcja obiektywistycznej epistemologii, którą jest ujęcie badanego przedmiotu w obiektywistycznej (trzecioświatowej) perspektywie, co czyni go podatnym na krytykę (na możliwość odnalezienia błędu). Analizowany problem okazuje się być wtedy wypadkową różnych hipotez i przypuszczeń. Problem rozumienia staje się wtedy problemem trzecioświatowym. Składają się nań analizowany problem wraz z jego sytuacją problemową.

Analizę swoją ujaśnia Popper przykładem teorii przypływów Galileusza. Zaprzecza ona, że Księżyc ma wpływ na zjawisko przypływów. W jej ramach przypływy są rezultatem przyspieszeń, które są konsekwencją innych ruchów Ziemi. Galileusz miał nadzieję, że posługując się swoją teorią przypływów będzie mógł rozstrzygnąć prawdziwość teorii kopernikańskiej – problem poruszania się Ziemi. Jego teoria, stwierdza Popper, wyjaśnić miała przypływy na tle określonej struktury teoretycznej jaką stanowiła teoria Kopernika.

Dlaczego – stawia Popper pytanie – Galileusz odrzucił znaną hipotezę o wpływie Księżyca na zjawisko przypływów? Odpowiedzią na to ma być analiza sytuacji problemowej. Dwa są, zdaniem Poppera, po temu powody. Po pierwsze był on przeciwnikiem astrologii, a po drugie sama jego teoria wykluczała wpływy międzyplanetarne.

Problem rozumienia, wyciąga Popper wniosek ze swych dotychczasowych analiz, jest problemem wyższego rzędu od problemu P1. Problem rozumienia jest zatem metaproblemem, dotyczącym teorii próbnej (TP) oraz problemu P1. Teoria rozwiązująca problem rozumienia jest metateorią, ponieważ jej składowymi są P1, TP, EB, P2, oraz wyjaśnienie o co w tych składowych chodziło. Wyraża to Popper pod postacią siedmiu tez:

Rekonstrukcja sytuacji problemowej jest ważniejsza dla zrozumienia teorii błędnych niż dla teorii poprawnych. Błąd TP można wyjaśnić odwołując się do całości analizowanej struktury teoretycznej, lub do ogólnego tła P 1.

Rekonstrukcja sytuacji problemowej ma hipotetyczny charakter, jest ona pewną idealizacją rzeczywistej sytuacji problemowej, ujmującą problem rozumienia w obiektywistycznej perspektywie.

Schemat rozwoju wiedzy jest pewnym uproszczeniem, które można modyfikować w zależności od potrzeb.

Każda próba zrozumienia analizowanej teorii musi uwzględniać historyczne badania dotyczące jej oraz problemów, które chciała rozwiązać. Historia nauki staje się zatem niezbywalnym elementem analiz epistemologicznych.

Historia nauki nie jest jedynie historią teorii, stanowi ona historię sytuacji problemowych i ich rozwiązań. Niepoprawne próby rozwiązania danego problemu okazują się być równie istotne jak rozwiązania poprawne.

Metaproblemy i metateorie historyka nauki są innymi problemami niż problemy i teorie uczonego badającego P1. Dla tych poziomów nie ma wspólnych problemów. Uzasadnia to Popper, stwierdzając, że dwie próbne metateorie orzekające się o tym samym przedmiocie analiz mogą być diametralnie odmienne. Wyraża to tak: Zatem niektóre elementy strukturalne trzeciego świata składające się na metateorię mogą być zupełnie różne od elementów składających się na teorię interpretowaną czy rozumianą… Omawiana metoda historycznego rozumienia trzeciego świata to metoda zastępowania, gdziekolwiek to możliwe, wyjaśnień psychologicznych analizą relacji w trzecim świecie. Zamiast psychologicznych zasad wyjaśniających posługujemy się nade wszystko rozważaniami z trzeciego świata o charakterze logicznym. Moją tezą jest, że dzięki takim analizom nasze rozumienie historyczne może się poszerzać.

Siódma teza, stwierdzająca, że analiza samego problemu jest niewystarczająca do rzeczywistego zrozumienia problemu, wiąże się z analizą sytuacyjną i zasadą racjonalności. Analizę sytuacyjną określa Popper następująco:

przez analizę sytuacyjną rozumiem pewien rodzaj próbnego czy hipotetycznego wyjaśniania ludzkich działań, które odwołuje się do sytuacji, w której znajduje się aktor.

Zasadę racjonalności ujmuje tak:

Fizyk John Archibald Wheeler [2], [3] napisał ostatnio: „Cały nasz problem polega na tym, aby popełnić pomyłkę możliwie jak najszybciej”. Problem Wheelera można rozwiązać poprzez przyjęcie świadomie krytycznej postawy. Jest to, jak sądzę, najwyższa ze znanych form postawy racjonalnej, najwyższa forma racjonalności.

Krytyczna eliminacja błędów na poziomie naukowym polega na świadomym poszukiwaniu sprzeczności.

Analizę sytuacyjną do zasady racjonalności odnosi Popper następująco:

Zapewne żadnej twórczej działalności nie można wyjaśnić całkowicie, niemniej jednak możemy hipotetycznie przedstawić wyidealizowaną rekonstrukcję sytuacji problemowej, w której aktor się znalazł i umożliwić „zrozumienie” („racjonalne rozumienie”) danego działania jako adekwatnego do jego sposobu rozumienia sytuacji. Taka analiza sytuacyjna jest zastosowaniem zasady racjonalności. Analiza sytuacyjna ma za zadanie odróżniać sytuację taką, jak rozumiał ją aktor, od sytuacji, jaka faktycznie istniała (oba te opisy są oczywiście hipotetyczne).

Aby móc dokonać takiego rozróżnienia, stwierdza Popper, aby móc zrozumieć problem historyczny, badacz musi samodzielnie podjąć wysiłek rozwiązania jakiegokolwiek aktualnego problemu, musi nauczyć się rozumieć problem naukowy. Porażka przy wstępnym rozwiązaniu problemu spowoduje uświadomienie sobie trudności w nim tkwiących, dokonamy, jak to określa Popper, ich lokalizacji. Zrozumiemy, proponując wstępne rozwiązanie, na czym polega dana trudność i w czym jest ukryta. Rozumienie problemu jest procesem aktywnym, uczymy się go rozumieć ponosząc porażki przy jego rozwiązywaniu. Uczenie się tego jest kwestią umiejętności poruszania się pomiędzy elementami Świata3. Cała ta procedura, zauważa Popper, przypomina intuicyjne rozumienie teorii naukowej. Stanowisko swoje pointuje tak:

(…) unikanie błędów jest kiepskim ideałem: jeżeli nie ośmielimy się atakować trudnych problemów, przy których pomyłka jest nie do uniknięcia, nie ma mowy o rozwoju wiedzy. Od naszych najśmielszych teorii, także tych błędnych, możemy się najwięcej nauczyć. Nikt nie jest wolny od błędów: rzecz w tym aby się na nich uczyć.

Relację pomiędzy naukami humanistycznymi a naukami przyrodniczymi ujmuje Popper następująco:

Jestem gotów zgodzić się, że celem nauk humanistycznych jest rozumienie.

Sprzeciwiam się… uznaniu metody rozumienia za cechę charakterystyczną nauk humanistycznych, za cechę, która miałaby odróżniać je od nauk przyrodniczych.

Argumenty Poppera przedstawić można następująco. Widzi on cztery wspólne sposoby pojmowania terminu „rozumienie” w obydwu dziedzinach nauk. (1) Tak samo jak rozumiemy innych ludzi dzięki wspólnemu nam wszystkim człowieczeństwu, tak rozumieć możemy przyrodę ponieważ jesteśmy jej integralną częścią. (2) Tak samo jak rozumiemy innych ludzi dzięki temu, że ich myśli i czyny są racjonalne, tak samo rozumieć możemy prawa przyrody ponieważ są one racjonalne (zawiera się w nich racjonalna konieczność). (3) Tak samo jak rozumiemy świat kultury rozumieć możemy świat natury, jest to sztuka rozumienia dzieła stworzonego. (4) Tak samo jak w humanistyce tak i w naukach przyrodniczych występuje problem niemożliwości ostatecznego zrozumienia, wszyscy więc zadawalać się muszą jedynie częściowym rozumieniem. (Tezy te wspiera Popper stwierdzeniem, że nauka jest również dziedziną literatury.)

Postawienie na jednym poziomie nauk humanistycznych i nauk przyrodniczych jest pewną postacią redukcjonizmu. Z jednej strony, odnaleźć tu można neopozytywistyczny ideał jedności nauki, z tą istotną różnicą, że nie chodzi oczywiście Popperowi o fizykalizm, lecz raczej o wspólną wszystkim dziedzinom metodę jaką jest metoda przypuszczeń i odrzuceń, z drugiej zaś strony redukcja ta ma charakter emergencyjny. Wyłania się z niej bowiem obraz horyzontalnego modelu wiedzy, w którym podział na to co humanistyczne i na to co przyrodnicze zastąpiony zostaje jednym poziomem, który stanowią badane problemy.

Czy można ocalić popperowski schemat rozwoju wiedzy?

Wprowadzając swoją koncepcję metafizyki uwypuklił Popper obiektywny charakter ludzkiej wiedzy, ale nie dał nowej podstawy dla racjonalnych refutacji (obaleń). Przyjęcie teorii trzech światów, jak stwierdza Popper, jest pewną hipotezą, która uzasadnić ma obiektywny charakter ludzkiej wiedzy, jak również całej kultury. Jest to raczej pewne ewolucyjne podejście, pewna otwarta propozycja, czy program badawczy, niż gotowa teoria. Co zyskujemy przyjmując ten program badawczy?

Ewolucja w ramach tego podejścia ma charakter kreatywny i wyłania z siebie coraz to nowe stadia – pojawienie się człowieka jest tu punktem przełomowym w tym sensie, że dzięki niemu kreatywność świata stała się oczywista, stworzył on bowiem nowy, obiektywny Świat3. Kreatywność ta nie jest ani deterministyczna ani indeterministyczna, ma ona charakter skłonnościowy: Świat1 jest otwarty, może on poddawać się wpływom Świata3, a tą drogą również i Świata3. Możliwości powstałe na gruncie trzech światów kontrolując się plastycznie wzajemnie na siebie wpływają, tym samym powodując swój rozwój.

Człowiek jako jeden z podsystemów plastycznych kontroli jest bytem wolnym w tym sensie, że swobodnie może tworzyć byty Świata3, co innymi słowy wyrazić można, że może zmieniać Świat1 oraz 2 i 3, drogą konstruowania systemów teoretycznych stanowiących próbę zrozumienia tych światów. Nie musi się jednakże podporządkowywać owym systemom, może je krytycznie dyskutować i odrzucać je w momencie gdy nie spełniają jego oczekiwań. Jednocześnie zaś jego dzieła – wytwory Świata3 – kontrolują samego człowieka wywierając nań wpływ drogą stymulowania go do działania. Wybierając określoną możliwość, a odrzucając inną, powoduje człowiek, że skłonności – nie zawierające się w żadnym konkretnym przedmiocie, lecz zawierające się w sytuacji, której dany przedmiot jest częścią – ulegają zmianie. Samo ludzkie pojmowanie świata zawiera możliwość jego zmiany, ponieważ dokonując określonych wyborów wpływamy na przyszłe sytuacje, nie determinując ich jednakże w sposób jednoznaczny. Przyszłość jawi się wtedy jako obiektywnie otwarta zarówno na nasze przyszłe działania, jak i na niezamierzone rezultaty tych działań, co jest konsekwencją kreatywności świata – potencjalnej realizacji możliwości.

Świat3 stanowiący klasę rzeczy, pewno określone uniwersum dyskursu, którego obiekty nie istnieją nigdzie, nie będąc zatem żadnymi esencjami, stanowiąc wyłącznie pewną potencjalność bycia zinterpretowanym przez nasze umysły, jako że są wytworem naszych umysłów, nie są przedmiotami nie będącymi częścią świata w którym żyjemy. Są one jego produktem, wytworem ludzkiej aktywności, powstałym w trakcie ewolucji.

W perspektywie horyzontalnego modelu wiedzy, w którym wszystkie te podziały zastąpione zostają jednym poziomem, który stanowią badane drogą prób i błędów problemy, postawić należy pytanie, na które Popper nie udzielił odpowiedzi: Czy w ramach krytycznego racjonalizmu odnaleźć można podstawy do eliminacji błędu z poznania? Na gruncie koncepcji Kuhna i Feyerabenda względem popperowskiego schematu przedstawić można następujące zarzuty.

Eliminacja błędu, czyli próba sprawdzenia teorii odnosi się tylko do okresu normalnego w nauce i ogranicza się jedynie do sposobu powiązania indywidualnych problemów badawczych (łamigłówek) z zespołem powszechnie akceptowanej wiedzy naukowej. Sam zespół sprawdzaniu nie podlega. Zawęża tym samym Kuhn zakres stosowalności schematu Poppera do okresów uprawiania nauki normalnej.

Eliminacja błędu (uczenie się na własnych błędach drogą zastępowania teorii gorszej teorią lepszą) nie ma miejsca przy rewolucyjnym przejściu od teorii do teorii, ponieważ mamy wtedy do czynienia z brakiem reguł generowania łamigłówek, z czego wynika, konkluduje Kuhn, że i z brakiem błędów.

Nie istnieje w nauce ponadhistoryczna racjonalność postępowania badawczego, zauważa Feyerabend, z czego, na bazie punktu 1 można wyciągnąć wniosek, że eliminacja błędu dokonująca się drogą falsyfikacji ma ograniczony zakres stosowania.

Niezgodność liczbowa i fiasko jakościowe, o jakich mówi Feyerabend analizując zagadnienie niezgodności teorii z faktami, pociąga za sobą stosowanie zabiegów immunizacyjnych, w znacznym stopniu uniemożliwiających eliminację błędu. Czyni to popperowski schemat niezgodnym z autentyczną praktyką badawczą.

Rozwój nauki (wiedzy), zauważa Feyerabend, nie zawsze rozpoczyna się od problemu – często początkiem refleksji naukowej nie jest jakaś forma krytycznej argumentacji. Formy te są historycznie zmienne, zależne od konkretnej sytuacji, w której czasami używa się krytycznej argumentacji, a czasami propagandy czy perswazji.

Poppera schemat rozwoju wiedzy zakładać musi ontologiczną i językową przekładalność konkurujących ze sobą teorii o wysokim stopniu uniwersalności, celem umożliwienia porównywania ich stopni falsyfikowalności, sprawdzalności, koroboracji czy bliskości ku prawdzie.

Eliminacja błędu w znacznym stopniu polegająca na możliwości przeprowadzenia eksperymentu krzyżowego, w świetle konsekwencji płynących z faktu interteoretycznej niewspółmierności – a konkretnie z niemożliwości dokonania jednoznacznego przekładu jednej uniwersalnej teorii na drugą, nie jest możliwa do przeprowadzenia.

Modyfikacja schematu Poppera

Owych siedem zarzutów odnosi się do schematu w następującej postaci:

P1 → TP → EB → P2

Istnieje możliwość takiego przeformułowania jego schematu, że owych siedem zarzutów można będzie z nim uzgodnić:

SP1 → TP → EBTP → SP2

Symbole od strony prawej czytamy następująco: SP1 – początkowa sytuacja problemowa (problem plus jego tło), TP – teoria próbna, EBTP – eliminacja błędu przebiegająca drogą dopuszczenia wszystkich możliwych metod analizy, sprawdzania lub wyboru (nie zakładając ich ponadhistorycznej obowiązywalności – traktując je jako teorie próbne eliminacji błędów) dających się zastosować w określonej sytuacji problemowej, SP2 – nowo powstała sytuacja problemowa. Przeformułowanie to na pierwszy rzut oka wygląda jedynie na zabieg kosmetyczny. Tak jednak nie jest.

Jej najważniejszy element EBTP podatny jest na historyczną zmianę kryteriów prawomocności (racjonalności) – dopuszczając jednocześnie alternatywne sposoby rozwiązania danego problemu – co uzgadnia schemat z zarzutem 3. Dodać tu należy, że dopuszczenie alternatywnych sposobów rozwiązania danego problemu powodowało będzie nowe alternatywne sytuacje problemowe.

Eliminacja błędu drogą empirycznego sprawdzenia teorii, staje się jednym z możliwych sposobów zastosowania EBTP, a nie, jak to ma miejsce u Poppera, sposobem jedynym. Uzgadnia to proponowany schemat z zarzutem 1.

EBTP nieuznająca ponadhistorycznych kryteriów racjonalności, ma miejsce przy rewolucyjnym przejściu od teorii do teorii jest bowiem w stanie, na bazie sensów racjonalności jaką przypisać można metodologicznemu sposobowi uprawomocniania poznania teoretycznego (ten działa racjonalnie kto: [a] doprowadza do spełnienia swych oczekiwań, [b] ma dobre powody aby tak działać, [c] nie stwierdza istnienia obiektywnych przeciwwskazań uniemożliwiających realizację celu, [d] postępuje ściśle według wytyczonego wcześniej planu, [e] podporządkowuje się zbiorowi reguł metodologicznych) uznać, że przejście od teorii do teorii odbywające się w momencie wyczerpania się tradycji rozwiązywania łamigłówek jest krokiem racjonalnym. Uzgadnia to schemat z zarzutem 3.

Powołując się znów na bazę sensów racjonalności, zabiegi immunizacyjne uznać można za formę EBTP zakładając, co nie jest niezgodne z intencjami Feyerabenda, że świadomie przeprowadzone doraźne uzgodnienie teorii z doświadczeniem zaowocuje sformułowaniem jej bogatszej wersji będącej w stanie wyjaśnić – używając określenia Feyerabenda – skażenie materiału empirycznego nie pozbywając się przy tym teorii rokującej nadzieje na rozwiązanie analizowanego problemu. Uzgadnia to schemat z zarzutem 4.

Przyjąwszy tezę Feyerabenda (zarzut 5), że rozwój wiedzy nie zawsze rozpoczyna się od problemu, lecz niejednokrotnie swój początek ma w różnych innych formach niekrytycznej argumentacji (np. Perswazji czy propagandy), co podważa pierwszą część schematu Poppera (P1 → TP), zauważyć należy, iż zastępując P1 przez SP1 wszystkie te niekrytyczne formy argumentacji umieścić można w tle danego problemu przyczyniającym się z biegiem czasu do jasnego sformułowania samego problemu, od którego przejść można do teorii próbnej.

Na mocy ustalenia pierwszego i trzeciego, schemat Poppera uznać należy za szczególny przypadek zaproponowanego tu schematu, przenosząc tym samym porównywanie (o ile zajdzie taka potrzeba) stopni falsyfikowalności, sprawdzalności, koroboracji czy bliskości ku prawdzie, do okresu nauki normalnej, nie potrzebującej do swego niezakłóconego funkcjonowania przeprowadzania eksperymentów krzyżowych.

Po siódme, schemat ten nie jest już schematem historycznego rozwoju wiedzy, staje się emergencyjnym schematem historycznego rozwoju wiedzy, w którym tymczasowe i czasami niewspółmierne, teorie naukowe i filozoficzne plastycznie kontrolowane są poprzez tymczasowe teorie próbne eliminacji błędów i gdzie nowe alternatywne sytuacje problemowe są skłonnościową konsekwencją zarówno początkowej sytuacji problemowej jak również alternatywnych metod sprawdzania, tym samym plastycznie wpływając na nowe, tymczasowe teorie naukowe i filozoficzne. Fakt istnienia interteoretycznej niewspółmierności nie wpływa na funkcjonowanie tego schematu.

Literatura

Literatura odnośnie krytycznego racjonalizmu

Źródło „https://pl.wikipedia.org/wiki/Krytyczny_racjonalizm”

Popperyzm

Brak wersji przejrzanej

Niektóre informacje występujące w tym haśle uznano za kontrowersyjne.

Uzasadnienie tej decyzji znajduje się na stronie Wikipedia:Artykuły kontrowersyjne lub na stronie dyskusji.

Jeśli możesz, przeredaguj go zgodnie z zasadami neutralnego punktu widzenia.

Popperyzm – filozofia Karla Poppera a także stworzony przez niego prąd filozofii nauki rozwijany początkowo w opozycji do pozytywizmu logicznego, a później jako niezależny pogląd na kryteria naukowości wypowiedzi i metodologię nauki. „Popperyzm” określany jest również jako „krytyczny racjonalizm”, a także, w odniesieniu wyłącznie do filozofii nauki jako „falsyfikacjonizm”. Tak rozumiany „popperyzm” występuje w co najmniej trzech znaczeniach:

wąskim: jest to zbiór wszystkich, lub części tylko, poglądów Poppera;

szerszym: jest to określenia dla poglądów (wszystkich, lub części tylko) kontynuatorów myśli Poppera (tzw. Popperystów): Imre Lakatosa, Josepha Agassiego, Johna Watkinsa, W. W. Bartleya, Paula Feyerabenda (z okresu umiarkowanego).

najszerszym: świadome (lub nie) nawiązywanie do poglądów Poppera.

Spis treści

1 popperyzm w filozofii wiedzy

1.1 Poglądy Poppera, kryterium demarkacyjne

1.2 Nowy podział sądów

1.3 Problemy i krytyka popperyzmu: Imre Lakatos i Thomas Kuhn

2 popperyzm jako stanowisko socjologiczne

3 Podsumowanie

4 Bibliografia

5 Zobacz też

6 Linki zewnętrzne

Popperyzm w filozofii wiedzy

Poglądy Poppera, kryterium demarkacyjne

Filozofia Poppera była głosem w dyskusji, jaka rozegrała się w środowiskach naukowych w XX w., a która była związana z burzliwym rozwojem matematyki, logiki i fizyki. Znaczące zmiany jakie dokonały się w postrzeganiu świata (ogólna teoria względności, mechanika kwantowa itp.) oraz przemiany społeczne spowodowały przewartościowanie wielu sądów na temat natury i pochodzenia wiedzy.

Początkowo Popper ograniczał się do krytyki pozytywistycznego podejścia, które jako kryterium demarkacyjne między wiedzą sensowną a niesensowną proponowało pojęcie weryfikowalności. W myśl poglądów pozytywistycznych wiedza sensowna jest to ta część wypowiedzi ludzkich, która znajduje odzwierciedlenie w rzeczywistości. Punktem wyjścia dla wiedzy jest doświadczenie, gołe fakty, na podstawie których należy zbudować teorię wyjaśniającą ich pochodzenie lub systematyzującą ich kształt, po czym teoria ta podlega weryfikacji doświadczalnej. W myśl poglądów pozytywistów weryfikacja polega na przeprowadzaniu i systematyzacji doświadczeń potwierdzających teorię. Wypowiedź sensowna powinna tym samym znajdować potwierdzenie w faktach, mówić wyłącznie o faktach lub być wydedukowana z faktów za pomocą zasad logicznych i ostatecznie zostać potwierdzona w doświadczeniu aby móc być uznaną za prawdziwą. Nie powinna natomiast zajmować się abstrakcyjnymi bytami teoretycznymi (porównaj kopenhaska interpretacja mechaniki kwantowej). Pozytywiści argumentowali, że im więcej razy teoria została zweryfikowana, tym bardziej jest ona prawdopodobna. Pogląd ten jednak został zaatakowany przez Poppera.

Krytyka podejścia pozytywistycznego przeprowadzona w pracy „Logika odkrycia naukowego” (1934) wskazywała na braki w koncepcji budowy sensownych wypowiedzi z czystych danych empirycznych a także w pojęciu weryfikowalności. Filozof akcentował rolę teorii, a zwłaszcza jej abstrakcyjnych elementów w organizacji wiedzy. Nie do przyjęcia, zdaniem Poppera, jest pogląd jakoby istniały „gołe fakty”, lub aby dało się gromadzić wiedzę doświadczalną bez posiadania modelu zjawiska, które się bada. Na fakt ten zwrócił także uwagę Albert Einstein wyrażając sąd, że bez wiedzy teoretycznej (modelu zjawiska) niemożliwe jest zadecydowanie, jakie dane są istotne dla analizy doświadczenia.

Ostateczny atak Poppera dotyczył podziału na wiedzę sensowną i niesensowną. Pozostając w personalnym sporze z Ludwigiem Wittgensteinem, Popper uważał, że zagadnienia filozofii są rzeczywistymi problemami rozumowymi, a nie jedynie brakiem dyscypliny językowej. W szczególności zanegował Popper pogląd, jakoby wiedza nie mająca odniesienia do doświadczenia zawsze była wiedzą nonsensowną czy trywialną. Popper zwrócił uwagę na podstawową trudność pozytywizmu: oto jeśli zastosować zasady pozytywizmu do niego samego, uzyskuje się sprzeczność – koncepcje pozytywistyczne nie mają odniesienia do doświadczenia, czyli do rzeczywistego rozwoju wiedzy. Opisany wcześniej przykład dotyczący zastosowania zasady indukcji do obserwacji wschodów słońca pokazuje także, że pojęcie weryfikacji teorii ma niewielki sens. W konsekwencji Popper zanegował wartość poznawczą podziału wiedzy na sensowną i niesensowną, i zaproponował w to miejsce podział na wiedzę naukową i nienaukową, co nazwane zostało później zmianą kryterium demarkacyjnego.

Nowy podział sądów

Główny ciężar krytyki pozytywizmu przez Poppera szedł jednak w kierunku określonego przez pozytywizm kryterium demarkacyjnego sensowności wypowiedzi czyli weryfikowalności. Popper zauważył po pierwsze, że mogą istnieć wypowiedzi sensowne, które wcale nie podlegają analizie doświadczalnej. W wielkiej dyskusji prowadzonej przeciwko Wittgensteinowi dowodził, że istnieją prawdziwe problemy filozoficzne a nie jedynie zagadki językowe, jak sądził ten ostatni filozof. W szczególności Popper wyraził pogląd, że niemożliwe jest metodologicznie jasne określenie wiedzy sensownej od niesensownej. W miejsce kategorycznej klasyfikacji proponowanej przez pozytywistów zaproponował własną, polegającą na innym przeprowadzeniu linii demarkacyjnej i osłabieniu kryteriów podziału. Mianowicie, jako podstawowe, zaproponował rozróżnienie na linii wypowiedź naukowa – wypowiedź nienaukowa, które odbywa się bez wartościowania na temat sensowności a tym bardziej prawdziwości wypowiedzi. Ponadto zauważył, że niezależnie od liczby potwierdzających teorie danych doświadczalnych, nie jest możliwe określenie „prawdopodobieństwa” prawdziwości teorii, gdyż nie ma możliwości zdefiniowania odpowiedniej przestrzeni probabilistycznej, a zatem koncepcja pozytywistów jest sama w sobie skażona abstrakcjami, niemożliwymi do realizacji w sposób ścisły i nie znajdującymi pokrycia w doświadczeniu.

Jako kryterium demarkacyjne w swoim nowym podziale wiedzy Popper zaproponował stosowanie pojęcia falsyfikowalności. Miało ono w zamyśle filozofa odpowiadać obserwacji, że jakkolwiek żadne doświadczenie nie może wykazać prawdziwości teorii, to istnieją doświadczenia, które mogą wykazać jej fałszywość. Według Poppera wiedza naukowa to taka, która dopuszcza (czysto formalnie) falsyfikację, czyli jest niejako ze swojej konstrukcji gotowa do wskazania doświadczenia, które mogłoby teorię obalić. Ważne przy tym, że nie musi być to doświadczenie możliwe do realizacji efektywnie w aktualnej sytuacji technicznej czy organizacyjnej. Zdaniem Poppera dużo bardziej istotna jest sama chęć wskazana takiego zjawiska czy obserwacji. W swojej krytyce takich poglądów jak marksizm, poglądy psychologiczne Freuda czy astrologia, Popper osądza te poglądy jako nienaukowe nie dlatego, że jak zdaniem pozytywistów nie są one zgodne z doświadczeniem, albo używają abstrakcyjnych terminów i błędów logicznych. Popper ocenia je jako nienaukowe, gdyż jego zdaniem są niepodatne na falsyfikację tzn. nie podają one doświadczeń, które można przeprowadzić aby je obalić.

Problemy i krytyka popperyzmu: Imre Lakatos i Thomas Kuhn

Ogólnie współczesne spojrzenie na poglądy Poppera wymaga przedstawienia ich w formie dwóch, w zasadzie niezależnych, choć powiązanych logicznie stanowisk:

Stanowisko wynikające z krytyki pozytywizmu logicznego: Popper uważał, że proponowany przez pozytywistów podział na zdania sensowne i nonsensowne nie ma znaczenia i jest błędny. W jego miejsce zaproponował podejście oparte na falsyfikacji i dzielące wypowiedzi na zdania naukowe (poddające się falsyfikacji) i nienaukowe (nie poddające się falsyfikacji). Tak podzielone zdania nie są oceniane jako dobre czy złe, mądre czy głupie. Zdania nienaukowe mogą nadal nieść istotne treści i być wartościowe poznawczo. Nie są jednak zdaniami naukowymi (na przykład dotyczą kultury, duszy, uczuć, sztuki, religii).

Stanowisko na temat praktyk stosowanych w nauce, metod jej rozwoju i metodologii prowadzenia badań: Popper podważał znaczenie weryfikacji teorii na rzecz falsyfikacji, bagatelizował rolę indukcji (uogólniania) oraz przeceniał znaczenie eksperymentu (a nie doceniał znaczenia teorii), uważając, że już pojedynczy fakt falsyfikacji pozwała odrzucić teorię i że faktycznie w taki sposób postępuje się w rzeczywistej nauce.

Poglądy Poppera odegrały niezwykle ważką rolę w współczesnej filozofii nauki. Był to przykład pierwszej w dziejach analizy rozwoju nauki, który został uznany za prawidłowy przez znaczącą większość społeczności naukowej. Można zaryzykować stwierdzenie, że Popper zapoczątkował współczesną teorię metodologii nauki, zaś jego poglądy stały się podstawą paradygmatu jej rozwoju. Jednak poglądy owe podlegały oczywiście zasadnej krytyce, zwłaszcza w zakresie drugiego ze stanowisk, które prezentował:

Thomas Kuhn w roku 1962 opublikował książkę pod tytułem „The Structure of Scientific Revolutions”. W dziele tym zaproponował własne uwagi na organizację wiedzy naukowej oraz zanegował popperowski pogląd, jakoby rozwój wiedzy miał charakter linearnego przyrostu w procesie asymilacji kolejnych falsyfikowalnych teorii i idei. Pogląd jakoby wiedza naukowa była tworzona dzięki budowaniu śmiałych hipotez, charakterystyczny dla Poppera, został zastąpiony ideą, że wiedza rozwija się w sposób nieciągły, rewolucyjnie. Po okresach względnego braku idei pojawia się ich wielka mnogość i przechyla ona w końcu naukowe spojrzenie z wcześniejszego stanu w nowy. Kuhn wprowadził pojęcie paradygmatu – wiodącego poglądu czy prądu w nauce obejmującego znaczną część danej dziedziny i pełniącego rolę poglądów wiodących, uznanych i rekomendowanych np. do nauczania. Rozwój nauki według Kuhna miał się dokonywać nie linearnie (jak uważali pozytywiści, a także Popper), a więc nie przez proste gromadzenie mnogości nowych teorii i wiedzy, a raczej w procesie rewolucji: powstawania nowych paradygmatów i upadku starych. Jak głosi popularne powiedzenie, nowe teorie uzyskują status wiodących, kiedy umrą zwolennicy starych – jest to bardzo trafne streszczenie poglądów Kuhna na rozwój nauki. Krytyka Kuhna jest nie do końca wyrażona jasnym językiem i jego stanowisko dopuszcza interpretację umiarkowana i skrajną. Interpretacja skrajna, jakoby upadek paradygmatu zawsze dokonywał się bez jakiegokolwiek odniesienia do doświadczenia, jest w oczywisty sposób błędna. Natomiast interpretacja umiarkowana, w ramach której podkreśla się, że paradygmat może być silniejszy niż doświadczenia go falsyfikujące przynajmniej do momentu aż ktoś przedstawi lepszy paradygmat, jest jak najbardziej zasadna.

Imre Lakatos – węgierski matematyk – w latach 60. XX wieku w książce „Against Method” zauważył, że w rzeczywistej nauce ścisłej, której przykład jego zdaniem stanowiła fizyka, kryterium falsyfikacji bywa czasem stosowane z opóźnieniem! Jako przykład podał odkrycie neutrina. Z obserwacji doświadczalnych wynikało, że reakcja rozpadu neutronu (rozpad ß) łamie zasadę zachowania energii. Aby ratować fundament wiedzy fizycznej wprowadzono „ad hoc” pomysł, że brakująca energia jest unoszona przez nową cząstkę, którą nazwano neutrino, a która miałaby bardzo słabo oddziaływać z materią, co uzasadniało kłopoty z jej bezpośrednia rejestracją. Okazuje się, że stan przejściowy, w którym nie zarejestrowano neutrina doświadczalnie, a zasada zachowania energii była uważana pomimo to za prawdziwą, trwał około 30 lat! Należy jednak pamiętać, że sytuacja była tak postrzegana przez fizyków (choć niekoniecznie przez Lakatosa, który fizykiem nie był) jako skrajnie prowizoryczna. Innymi słowy fizycy doskonale zdawali sobie sprawę z istnienia niedoskonałości w teorii i poszukiwali usilnie weryfikacji doświadczalnej istnienia neutrina. Innym przykładem było odkrycie planety Uran, w którym to przypadku obaj niezależni odkrywcy chętniej wygłosili postulat istnienia dodatkowej planety w Układzie Słonecznym, niż falsyfikację zasad dynamiki Newtona. Warto wszakże zauważyć, że krytyka Lakatosa dotyczyła nie tyle wad pojęcia falsyfikowalności (pomimo niepewności co do istnienia neutrina, zasada zachowania energii dopuszczała stale falsyfikację, czyli wg Poppera była zdaniem naukowym, być może nieprawdziwym), co jego stosowania. Lakatos zauważył, że skoro opisana sytuacja nie obaliła wiary w zasadę zachowania energii, to nawet jawne sfalsyfikowanie teorii w rzeczywistej nauce jej nie obala, a przynajmniej nie dzieje się to automatycznie. Tak działa rzeczywista nauka – twierdził Lakatos – jest tak co najmniej w niektórych wypadkach: w tych które dotyczą dobrze ugruntowanej wiedzy, która wyjaśnia wiele faktów. Lakatos poszukując uzgodnienia podejścia Poppera i Kuhna zaproponował wprowadzenie dodatkowych elementów, a w szczególności pojęcia programu badawczego. W myśl tej koncepcji wiedza rozwijana jest w ramach nie pojedynczych teorii, a raczej ich prądów, większych zbiorów osądów, które miałyby być uzgadniane, aby osiągnąć spójność pomiędzy sobą. Falsyfikacja danej teorii nie obala jej, dopóki teoria ta odgrywa istotną rolę w ramach programu badawczego, do którego należy. Uczeni poszukują wówczas alternatywnego wyjaśnienia wyników eksperymentu i dopiero wobec niepowodzenia tych działań może nastąpić obalenie teorii, które czasem doprowadza do upadku całego programu badawczego. Jak widać Lakatos zaproponował zatem poszerzenie kryteriów demarkacyjnych zaproponowanych przez Poppera o dodatkowe: spójność poglądów głoszonych w ramach teorii z poglądami programu badawczego, oraz uzgodnił khunowska koncepcję nieciągłości w rozwoju wiedzy.

Popperyzm jako stanowisko socjologiczne

Popper opublikował także poczytne dzieło pod tytułem „Społeczeństwo otwarte i jego wrogowie”. Wyraził w nim pogląd, że jedynie społeczeństwa, w których jednostka uzyskuje wolność osobistą, mogą dać ludziom możliwość osiągnięcia realizacji oraz szczęścia. Urzeczywistnienie otwartości społeczeństwa ma wg Poppera prowadzić do skutecznej metody obrony przed totalitaryzmem. Poglądy takie prezentował Popper pod wpływem własnych przeżyć wojennych (był austriackim Żydem), a także jako sprzeciw wobec stanowiska filozoficznego Wittgensteina. Publikacja, o której mowa, zapoczątkowała rozwój wielokulturowych społeczeństw zachodnich i stała się bezpośrednią inspiracją dla polityków decydujących o nowym ładzie świata po II wojnie światowej, w tym konstrukcji ustroju powojennych Niemiec. Do uczniów Poppera należy George Soros, który zajął się praktyczną realizacją idei swojego mistrza. Współcześnie wobec wyzwań nowoczesności idee społeczne Poppera podlegają znaczącej krytyce. Zwraca się uwagę na konflikty cywilizacyjne (zderzenie cywilizacji chrześcijańskiej z islamska, które miałoby być wg krytyków Poppera nieuchronną konsekwencja dziejową) oraz na ważną rolę konstruktywnego ograniczenia wolności osobistej jednostek wobec zagrożenia terroryzmem (analogicznie do wcześniejszych krytyk, gdzie podobną rolę odgrywał komunizm). Tym niemniej dzieło Poppera przeżyło swój wielki rozkwit stając się nową podwaliną paradygmatu liberalnego w polityce i socjologii.

Podsumowanie

Współcześnie popperyzm w jego wersji skrajnej jest już poglądem wyłącznie historycznym. Badania rozwoju nauki w latach późniejszych doprowadziły do konstatacji, że wiedza naukowa i jej rozwój odbywa się w złożony sposób, dla którego nie można określić pojedynczych i zawsze prawdziwych kryteriów sensowności czy prawdziwości. Podobnie problemy z zastosowaniem podejścia Poppera na gruncie nauk humanistycznych napotkało znaczące trudności. Budowa gmachu wiedzy humanistycznej z trudem daje się odnosić do poglądów znajdujących swoje źródło w naukach ścisłych.

Jednak niektóre poglądy Poppera weszły w skład paradygmatu współczesnej metodologii nauki. Falsyfikowalność aczkolwiek nie może być współcześnie uznawana za jedyne i ostateczne kryterium naukowości, nadal uważana jest za kryterium istotne, które jednak wymaga dodatkowych uzupełnień i ostrożności w stosowaniu.

Podobnie poglądy społeczne autora dzieła „Społeczeństwa otwartego i jego wrogów” będącego krytyką autorytaryzmu i totalitaryzmu nieco już przebrzmiały współcześnie. Jakkolwiek dzieło to stało się podstawą współczesnego liberalizmu, to jednak zwraca się obecnie uwagę na przecenianie roli rozwiązań technologicznej natury (np. Powszechny dostęp do edukacji, równouprawnienie płci, nieskrępowana wolność osobista) jako panaceów na wszelkie bolączki cywilizacji. Jak okazało się, na przykład wzrost wolności osobistej nie skutkuje wcale wzrostem ogólnego poziomu moralności w społeczeństwie (mierzonego ilością przestępstw). Te i inne próby krytyki nie zmieniają jednak faktu, że popperyzm, jakkolwiek współcześnie przebrzmiały, dostarczył filozofii nauki i filozofii społeczeństwa pojęć, które okazały się użyteczne i z pewnością należą do kanonu tych dziedzin.

Bibliografia

Karl Popper: Logika odkrycia naukowego. PWN, Warszawa 1977.

Karl Popper: Wiedza obiektywna. PWN, Warszawa 1992.

„Pogrzebacz Wittgensteina” David Edmonds, John Eidinow Muza S.A. seria Spectrum, Wydanie 1 czerwiec 2002

Thomas Kuhn: Struktura rewolucji naukowych., Wydawnictwo PWN, Warszawa 1968.

Zobacz też

popperianin

kościół popperowski

falsyfikacja

krytyczny racjonalizm

Linki zewnętrzne

Biogram Karla Poppera z kompletną listą literatury i odnośników zewnętrznych

Źródło „https://pl.wikipedia.org/wiki/Popperyzm”

Wyjaśnianie

Z Wikipedii

Brak wersji przejrzanej

Wyjaśnianie jest jedną z najbardziej znanych odmian rozumowania obok wnioskowania, dowodzenia i sprawdzania.

Wyjaśnianie – zwane również tłumaczeniem, jest zadaniem myślowym, które polega na wskazaniu racji dla stwierdzonego przez nas zdania. Innymi słowy, wyjaśnienie polega na odpowiedzi na pytanie „dlaczego tak jest jak stwierdziliśmy?” (w odróżnieniu od rozumowania typu dowodzenie, gdzie orzekamy o wartości logicznej stwierdzenia, odpowiadając np. na pytanie „czy to, co stwierdziliśmy jest prawdą?”). Zatem można powiedzieć, że wyjaśnianie jest szukaniem związków między stwierdzonymi faktami (uznanymi za prawdziwe), bez potrzeby dowodzenia ich wartości logicznych.

W przypadku, gdy nie potrafimy wyjaśnić obserwowanych faktów za pomocą wcześniejszych obserwacji uznanych za prawdziwe, wówczas tworzy się tzw. hipotezę wyjaśniającą. Hipoteza wyjaśniająca (H) jest stwierdzeniem dołączanym do zbioru stwierdzeń prawdziwych, którymi dotychczas dysponowaliśmy W (czyli do naszej wiedzy). Hipoteza nie ma jednakże ustalonej wartości logicznej. Dołączenie hipotezy H do zbioru W ma na celu sprawdzenie, czy za pomocą takiego połączenia H+W da się wyjaśnić jakiś obserwowany przez nas fakt. Hipotezę należy jednak sprawdzić. Wielokrotne zaobserwowanie, że przyjęta hipoteza jest wyjaśnieniem również dla innych, niż wyjściowy, zaobserwowanych faktów, przy jednoczesnym braku zjawisk, które przeczyłyby jej, sugeruje nam, że hipoteza ta z dużym prawdopodobieństwem jest prawdziwa (choć pewności nigdy nie ma).

Przy stawianiu hipotez wyjaśniających może pojawić się problem istnienia kilku hipotez wykluczających się wzajemnie, lecz będących, w połączeniu z dotychczasową wiedzą, wyjaśnieniami dla zaobserwowanego przez nas faktu. Takie hipotezy nazywa się konkurencyjnymi. Przy wyborze jednej z hipotez kierować się należy, tym, aby przyjęta hipoteza dawała uzasadnienie dla jak największej i jak najbardziej różnorodnej ilości obserowanych faktów. Gdy w dotychczasowej wiedzy nie znajdujemy faktów, które mogłyby obalić jedną z konkurencyjnych hipotez, wówczas należy przeprowadzić experimentum crucis (eksperyment rozstrzygający), tzn. taki, którego wynik potwierdziłby jedną z hipotez, a resztę obalił. Hipotezę potwierdzoną uznajemy wówczas za prawdziwą.

Hipoteza wyjaśniająca nie może być formułowana ad hoc, czyli nie może być wyjaśniająca tylko dla jednego faktu, dla którego wyjaśnienia się poszukuje.

Literatura

Kazimierz Ajdukiewicz, Klasyfikacja rozumowań [w] Ajdukiewicz, Język i poznanie, t. 2.

Zygmunt Ziembiński, Logika praktyczna

Źródło „https://pl.wikipedia.org/wiki/Wyjaśnianie”

Sprawdzanie

Z Wikipedii

Brak wersji przejrzanej

Sprawdzanie jest to jedna z najbardziej podstawowych odmian rozumowania obok wnioskowania, dowodzenia i wyjaśniania.

Sprawdzanie – definiując za Ajdukiewiczem pojęcie – jakiegoś zdania, np. zdania „a jest b” polega na rozwiązaniu zadania, które znajduje swe słowne sformułowanie w tzw. pytaniu rozstrzygnięcia „czy a jest b?”. Rozwiązaniem jest udzielenie jednej z dwóch właściwych odpowiedzi: „a jest b” albo „a nie jest b” na podstawie stwierdzenia prawdziwości lub fałszywości pewnych następstw wyprowadzonych ze zdania „a jest b”. W związku z powyższym procedura sprawdzania nie wyznacza jednoznacznie postaci konkluzji, wyprowadzenie której zakończy proces sprawdzania.

W procesie sprawdzania wyróżnić można następujące fazy: (a) postawienie pytania rozstrzygnięcia: „czy a jest b?”; (b) wyprowadzenie ze zdania „a jest b” jakichś następstw; (c) uznanie lub odrzucenie tych następstw.

Wnioskowanie (inferencja), prowadzące do uznania lub odrzucenia tych następstw i w sumie do uznania lub odrzucenia zdania sprawdzanego, przebiega jedną z dwóch dróg: (1) od odrzucenia następstw do odrzucenia racji – droga dedukcyjna; (2) od uznania następstw do uznania racji – droga dedukcyjna albo redukcyjna: (2.1.) dedukcyjna gdy następstwa są równoważne ze zdaniem sprawdzanym; (2.2.) redukcyjna gdy następstwa nie są równoważne ze zdaniem sprawdzanym.

Tak rozumiane sprawdzanie występuje w dwóch odmianach:

sprawdzanie pozytywne, które również występuje w dwóch odmianach:

weryfikacji

acjakonfirmacji

sprawdzanie negatywne, które też występuje w dwóch odmianach:

dyskonfirmacji;

falsyfikacji

koroboracją

Literatura

Kazimierz Ajdukiewicz, Klasyfikacje rozumowań [W:] Ajdukiewicz, Język i poznanie, T.1, PWN, Warszawa 1985.

Tadeusz Kwiatkowski, Logika ogólna, Wydawnictwo UMCS, Lublin 1988.

Karl Popper, Logika odkrycia naukowego, PWN, Warszawa 1977.

Źródło „https://pl.wikipedia.org/wiki/Sprawdzanie”

Dowodzenie

Ten artykuł dotyczy logiki. Zobacz też: Dowód lub Dowodzenie (wojsko)

Ten artykuł wymaga dopracowania zgodnie z zaleceniami edycyjnymi.

Należy w nim poprawić: pomieszanie znaczenia w logice i znaczeń potocznych.

Po wyeliminowaniu wskazanych powyżej niedoskonałości prosimy usunąć szablon {{Dopracować}} z kodu tego artykułu.

Dowodzenie jest to jednen z głównych rodzajów rozumowania obok wnioskowania, sprawdzania i wyjaśniania. Kazimierz Ajdukiewicz definiuje dowodzenie jako „proces myślowy polegający na rozwiązywaniu zadania, które domaga się, by pewne zdanie całkowicie dane w samym zadaniu wywnioskować ze zdań innych, już uprzednio uznanych”. Inaczej mówiąc, dowodzenie jest to zadanie zawarte w zdaniu rozkazującym o postaci: „wykaż, że a jest b!” Rozwiązanie tego zadania wymaga m.in. inferencji (wnioskowania), która jest składową dowodzenia. Jednym słowem dowodzeniem nazwiemy zabieg konstruowania danego dowodu.

Dowodzenie jest formalnym rozumowaniem korzystającym z zasad logiki, aksjomatów oraz założeń twierdzenia i wcześniej udowodnionych twierdzeń (porównaj dowód (matematyka)). W logice, dowieść zdanie A oznacza znaleźć prawdziwe zdanie B, z którego zdanie A wynika.

W naukach przyrodniczych mówi się często, że pewna obserwacja lub doświadczenie jest dowodem pewnej tezy, przez co należy rozumieć, że wyniki doświadczenia wespół z pewnym tokiem rozumowania uprawniają do przyjęcia prawdziwości tezy. Stosuje się zarówno dowody wprost, jak i nie wprost, a także rozumowania statystyczne (uprawdopodabniające) – indukcję, która jest głównym mechanizmem rozwoju wiedzy w naukach przyrodniczych.

W dziedzinach kultury takich jak historia lub dziedzinach praktycznych jak prawo czy kryminalistyka logiczny kształt dowodu jest zwykle mocno sformalizowany (w sensie używanych środków) i zachowując podobny charakter i znaczenia jak w naukach przyrodniczych, ograniczony jest do formy dowodu wprost.

W historii przez dowód rozumie się zwykle źródło pisane dostarczające poparcia danej tezy czyli utożsamia się proces dowodzenia tezy z podaniem źródła wskazującego bezpośrednio na jej prawdziwość. Takie rozumienie bliskie jest prawnemu czy kryminalistycznemu rozumieniu pojęcia dowodu, gdzie słowo dowód uznaje się za synonim przedmiotu lub zdarzenia stanowiącego podstawowy element w rozumowaniu dowodowym uprawniający do przyjęcia tezy (np. oskarżenia) za prawdziwe. Milcząco zakłada się przy tym, że istnieje oczywisty i prosty związek pomiędzy tezą twierdzeń (np. oskarżeniem) a przedstawionymi faktami (np. zebranymi odciskami palców). Jeśli brak takiego bezpośredniego i oczywistego związku mówimy nie o istnieniu dowodów lecz o poszlakach wskazujących na prawdziwość pewnej tezy.

Rodzaje dowodów

dowód wprost

dowód nie wprost (zwany także apagogicznym, sokratejskim)

dowód przez indukcję

Literatura

Kazimierz Ajdukiewicz, Klasyfikacja rozumowań [w] Ajdukiewicz, Język i poznanie, t. 2.

Zobacz

Wnioskowanie

Brak wersji przejrzanej

Wnioskowanie jest to jedna z najbardziej podstawowych odmian rozumowania obok sprawdzania, dowodzenia i wyjaśniania.

Wnioskować – za Kazimierzem Ajdukiewiczem – znaczy tyle co na podstawie uprzednio uznanych zdań (sądów) dochodzić do uznania nowego (dotąd nie uznawanego) zdania (sądu), lub wzmacniać pewność z jaką nowe zdanie uznajemy. Zdania uznawane, na podstawie których dochodzimy do uznania lub wzmocnienia pewności nowego zdania nazywane są przesłankami, zaś zdanie na ich podstawie uznane nazywany jest wnioskiem (konkluzją). Pomiędzy przesłankami a konkluzją nie musi zachodzić jakiś szczególny stosunek, a zwłaszcza jedno z nich nie musi być racją dla drugiego – wnioskowanie może być: (a) pewne albo prawdopodobne; (b) poprawne albo niepoprawne.

Można mówić o jego następujących odmianach:

o wnioskowaniu inferencyjnym, w którym oderwać można wniosek od przesłanek, jako o:

dedukcyjnym, które przybiera postaci:

wnioskowania z przesłanek ogólnych o wniosku szczegółowym (przykład: Wszyscy ludzie są śmiertelni, Sokrates jest człowiekiem, Sokrates jest śmiertelny)

wnioskowania, w którym przesłanka jest racją dla wniosku, gdzie oderwać można wniosek od przesłanek (przykład: Jeśli będzie padało to pójdę do kina, pada, idę do kina);

o wnioskowaniu indukcyjnym (enumeracyjnym lub eliminacyjnym) jako o wnioskowaniu ze szczegółu o ogóle (schemat: przedmiot x 1 posiada własność p, przedmiot x 2 posiada własność p, przedmiot x 3 posiada własność p, …, przedmiot x n posiada własność p, a zatem każde x jest p.

wnioskowaniu redukcyjnym jako o wnioskowaniu ze szczegółu o szczególe – tzw. wnioskowanie przez analogię ((schemat: przedmiot x 1 posiada własność p, przedmiot x 2 posiada własność p, przedmiot x 3 posiada własność p, …, przedmiot x n posiada własność p, a zatem przedmiot x n+1 też będzie miał własność p.)

o wnioskowaniu redukcyjnym jako o wnioskowaniu z następstwa o racji; (przykład: Skoro jest mokro na jezdni i chodniku to pewnie padał deszcz)

o wnioskowaniu nieinferencyjnym, w którym nie stwierdza się związku pomiędzy przesłankami a konkluzją (przykład: Jeśli dziś jest wtorek, to życie jest piękne).

Logika formalna

W logice formalnej rozważa się teorie, będące zbiorami zdań logicznych. Wprowadza się następnie reguły wnioskowania. Reguły są zapisywane za pomocą symbolu, oznaczającego, iż jeśli do jakiejkolwiek teorii należą zdania, to należy do niej także Y. Przykładem może tutaj być reguła modus ponens:. Jeśli zdanie B daje się wywnioskować z pewnych zdań teorii T, zapisujemy to.

Literatura

Kazimierz Ajdukiewicz, Klasyfikacja rozumowań, w: Język i poznanie, t. 2.

Źródło „https://pl.wikipedia.org/wiki/Wnioskowanie”

Rozumowanie

Rozumowanie – proces myślowy polegający na uznaniu za prawdziwe danego przekonania lub zdania na mocy innego przekonania lub zdania uznanego za prawdziwe już uprzednio.

W znaczeniu potocznym rozumowanie poprawne to rozumowanie wymagające zastosowania reguł logiki, oraz uznanych za prawdziwe aksjomatów – np.: praw nauki (zobacz też paranauka), systemów prawnych, dogmatów religijnych, regulaminów, zasad kulturowych, obyczaju, tradycji, czy autorytetu.

Prócz rozumowań w dziejach filozofii wyróżnano także inne sposoby, za pomocą których ludzie uznają za prawdziwe jakieś przekonania – np. spontaniczne powstawanie przekonań, wpajanie przekonań na drodze wychowania, intuicja, przekonania wrodzone i przekraczające doświadczenie. Jednak to właśnie rozumowania są drogą powstawania przekonań szczególnie istotną z punktu widzenia logiki, tj. taką, której poprawność można sprawdzać. Najczęściej dzieli się rozumowania na dedukcyjne (takie, w których wniosek wynika logicznie z przesłanek) i redukcyjne (takie, w których przesłanki, przede wszystkim przyczyny, stwierdza się na podstawie przyjętej tezy), przy czym dedukcyjne są niezawodne, zaś redukyjne zawodne. Poza tymi głównymi typami rozumowań jest jeszcze jednak wiele innych, jak rozumowane przez analogię i wnioskowanie statystyczne.

Tadeusz Kotarbiński[1] zwraca uwagę na fakt, że można wyróżnić przynajmniej trzy znaczenia polskiego słowa „rozumowanie”, z których istotne dla logiki jest tylko znaczenie ostatnie. W pierwszym znaczeniu rozumowanie to każda praca umysłowa, czynności umysłu w opozycji do pracy fizycznej. W drugim znaczeniu, ujawniającym się w sporze racjonalizmu epistemologicznego z empiryzmem, rozumowanie to wszystkie czynności umysłowe z wyłączeniem obserwacji i doświadczenia. Rozumowanie jako pojęcie istotne dla logiki Kotarbiński definiuje jako przechodzenie od jednych sądów (racji, przesłanek w szerokim rozumieniu tego słowa) do innych (następstw, wniosków w szerokim rozumieniu tego słowa); logika zainteresowana jest formami rozumowania, nie zaś jego treścią.

Spis treści

1 Wybrane klasyfikacje rozumowań

2 Ocena poprawności rozumowań

3 Bibliografia

4 Przypisy

Wybrane klasyfikacje rozumowań

Ogólna klasyfikacja rozumowań stanowi przedmiot zainteresowania przede wszystkim polskiego piśmiennictwa filozoficznego – w filozofii obcojęzycznej nie występują też dokładne odpowiedniki terminów używanych w klasyfikacjach polskich. Niniejszy artykuł przedstawia trzy najszerzej znane polskie klasyfikacje rozumowań – Jana Łukasiewicza, Tadeusza Czeżowskiego i Kazimierza Ajdukiewicza.

Jan Łukasiewicz[2] definiował rozumowanie jako „taką czynność umysłu, która na postawie zdań danych, będących punktem wyjścia rozumowania, szuka zdań innych, będących celem rozumowania, a połączonych z poprzednimi stosunkiem wynikania”. Rozumowanie jest więc poszukiwaniem dla danego zdania następstwa lub racji – ze względu na to, czy szuka się racji czy następstwa, rozumowania można podzielić na:

rozumowania dedukcyjne – takie, w których dana jest racja, a kierunek rozumowania jest zgodny z kierunkiem wynikania. Rozumowania dedukcyjne dzielą się na:

wnioskowania – takie rozumowania dedukcyjne, w których dana racja jest zdaniem pewnym. Np. „(1) Jeżeli jest dziś piątek, to jesteśmy w Paryżu. (2) Jest dziś piątek. (3) A więc jesteśmy w Paryżu” (modus ponens). Przesłanki zdania (3) stanowiącego następstwo, tj. zdania (1) i (2), są jego racją.

sprawdzanie – takie rozumowania dedukcyjne, w których dana racja nie jest zdaniem pewnym, ale pewne jest jej następstwo. Np. gdy chce się sprawdzić, czy ktoś przeczytał Boską komedię, zadaje mu się szereg pytań o treść tego dzieła. Jeśli ktoś czytał książkę, zna jej treść, mógł ją jednak poznać w jakiś inny sposób (np. Przeczytać streszczenie). Zdaniem sprawdzanym (racją rozumowania sprawdzającego) jest więc tu zdanie „pytana osoba czytała Boską komedię”, następstwem zdanie „pytana osoba zna treść Boskiej komedii”.

rozumowania redukcyjne – takie, w których dane jest następstwo, a kierunek rozumowania jest przeciwny do kierunku wynikania, czyli poszukuje się racji. Rozumowania redukcyjne dzielą się na:

tłumaczenie – dobieranie racji dla zdania pewnego. Szczególnym typem tłumaczenia jest indukcja niezupełna. Tłumaczeniem jest np. rozumowanie, w którym chcąc znaleźć odpowiedź na pytanie, „czemu zrobiło się ciemno?” odpowiadamy, że „przepaliły się korki”.

dowodzenie – dobieranie racji pewnej do zdania niepewnego.

Jedną z głównych wad klasyfikacji Łukasiewicza jest to, że wbrew ogólnie przyjętym rozumieniom terminów „dedukcja” i „redukcja” zalicza ona dowodzenie do rozumowań redukcyjnych, sprawdzanie zaś do dedukcyjnych.

Klasyfikacja rozumowań Tadeusza Czeżowskiego[3] jest rozwinięciem klasyfikacji Łukasiewicza. Czeżowski bowiem tak samo jak Łukasiewicz pojmuje rozumowanie – jako poszukiwane racji dla następstw i następstw dra racji. Podobnie jak Czeżowski za główne typy rozumowań uznaje rozumowania redukcyjne i dedukcyjne

rozumowania dedukcyjne to takie rozumowania, w których na mocy uznanych już racji uznaje się następstwa.

rozumowania redukcyjne to takie rozumowania, w których dla uznanego już następstwa uznaje się racje.

Czeżowski przedstawia jednak odmienny podział rozumowań redukcyjnych i dedukcyjnych na podtypy. Wszystkie rozumowania redukcyjne i dedukcyjne Czeżowski dzieli na progresywne lub regresywne i odkrywcze lub uzasadniające.

rozumowanie progresywne to takie rozumowanie, w którym dana jest racja, a poszukiwane jest następstwo.

rozumowanie regresywne to takie rozumowanie, w którym dane jest następstwo, a poszukiwana jest racja.

rozumowanie odkrywcze to takie rozumowanie, w którym zdanie dane jest uznane, a zdanie poszukiwane jeszcze nie uznane.

rozumowanie uzasadniające to takie rozumowanie, w którym zdanie dane nie jest jeszcze uznane, a poszukuje się zdania już uznanego.

Stosownie do tych trzech podziałów (dedukcyjne-redukcyjne, progresywne-regresywne, odkrywcze-uzasadniające) można scharakteryzować główne typy rozumowań:

wnioskowanie to rozumowanie dedukcyjne, progresywne i odkrywcze.

dowodzenie to rozumowanie dedukcyjne, regresywne i uzasadniające.

sprawdzanie to rozumowanie redukcyjne, progresywne i uzasadniające.

wyjaśnianie (tłumaczenie) to rozumowanie redukcyjne, regresywne i odkrywcze. Czeżowski uznaje indukcję enumeracyjną niezupełną za odmianę wyjaśniania – wyjaśnianie uogólniające.

W pracy Klasyfikacja rozumowań[4] Kazimierz Ajdukiewicz skrytykował klasyfikację rozumowań Łukasiewicza i Czeżowskiego uznając ją za zbyt wąską i przedstawił własną. Klasyfikacja Ajdukiewicza opiera się na dwóch podziałach. Pierwszym jest podział sposobów wyprowadzania konsekwencji (wnioskowań): Ajdukiewicz wyróżnia tu wnioskowania dedukcyjne, wnioskowania uprawdopodobniające i wnioskowania logicznie bezwartościowe. Drugi podział jest bardzo złożony i opiera się na zagadnieniach opisywanych przez logikę pytań Ajdukiewicza. Opierając się na tych dwóch podziałach w swojej klasyfikacji Ajdukiewicz prócz typów rozumowań wyróżnionych przez Łukasiewicza i Czeżowskiego wyróżnił także wiele innych, np. wnioskowania statystyczne czy rozwiązywanie równań. Ogólną motywacją klasyfikacji rozumowań Ajdukiewicza jest chęć objęcia wszystkich typów rozumowań występujących w praktyce naukowej.

Ocena poprawności rozumowań

Zazwyczaj uznaje się, że przekonania mogą być racjonalne lub nieracjonalne. Wyróżniono wiele kryteriów racjonalności przekonań – do ważniejszych należy odwołanie się do autorytetu, zgodność z relacjami zmysłów, wewnętrzna niesprzeczność przekonania, brak danych przeciwstawnych do uznanych w przekonaniu itp. Szczególnie istotną metodą oceny racjonalności przekonań jest jednak ocena sposobu, za pomocą którego dane przekonanie powstało – racjonalne są przekonania które powstały na drodze rozumowania, o ile było to rozumowanie poprawne. Kryteria poprawności rozumowań stanowią jeden z głównych przedmiotów badań logiki.

Logika ocenia wyłącznie racjonalność przekonań zwerbalizowanych – pierwszym i koniecznym kryterium oceny tego, czy rozumowanie jest racjonalne, jest więc jego werbalizacja. Zwerbalizowane ciągi rozumowań składają się na argumentacje, tj. złożone wypowiedzi mające na celu nakłonienie kogoś do przyjęcia jakiegoś przekonania. O sile argumentacji stanowi nie tylko poprawność rozumowania – innymi niż poprawność rozumowania czynnikami stanowiącymi o sile argumentacji zajmuje się nie logika, a retoryka (opisowa). Nie jest przy tym tak, że w praktyce retorycznej i argumentacji retorycznej nie wzbudza się przekonań za pomocą rozumowań – przeciwnie, rozumowania poprawne są podstawą argumentacji retorycznej, a erystyka, czyli wzbudzanie przekonań za pomocą rozumowań celowo błędnych nie jest częścią sztuki retorycznej.

By wyodrębnić w argumentacji czynniki stanowiące o poprawności rozumowania od czynników retorycznych i ekspresywnych należy przeprowadzić analizę argumentacji, w której wyodrębnia się składniki logiczne mające wartość uzasadniającą, przede wszystkim racje (przesłanki) i następstwa (konkluzje, wnioski) rozumowań. W analizie takiej powinna ujawnić się struktura logiczna wypowiedzi.

Po dokonaniu analizy logicznej argumentacji by ocenić poprawność rozumowania należy przede wszystkim ocenić poprawność przesłanek i to, czy można wyprowadzić z nich wniosek. Dla każdego typu rozumowania (niezależnie od tego, czy jest to rozumowanie pewne) należy starać się o to, by przesłanki były zdaniami prawdziwymi – przyjęcie nieprawdziwych przesłanek stanowi błąd zwany błędem materialnym i jeśli któraś z nich może być odrzucona, możemy odrzucić całe rozumowanie. W wielu rozumowaniach (nawet we wnioskowaniach matematycznych) pomija się wiele przesłanek uznanych za oczywiste – rozumowania takie noszą nazwę rozumowań entymematycznych (ich szczególnym typem są wnioskowania entymematyczne). By ocenić poprawność wnioskowania entymematycznego należy często uzupełnić je o brakujące przesłanki i ocenić ich prawdziwość, ze względu na zawodność poczucia oczywistości. Istnieją także rozumowania entymematyczne w których podane są wszystkie przesłanki, nie została jednak jasno podana konkluzja – w erystyce są one środkiem, dzięki któremu można łatwo doprowadzić słuchacza do konkluzji błędnej.

Prócz oceny przesłanek należy ocenić poprawność następstwa – by to uczynić, trzeba określić typ rozumowania, z którym mamy do czynienia, dla różnych typów rozumowań sposoby wyprowadzania następstw są bowiem odmienne. Rozumowania dedukcyjne mają charakter rozumowań niezawodnych – relacja wynikania ma w nim charakter czysto logiczny, zachodzi na mocy samej struktury zdania. By ustalić, że dane rozumowanie logiczne jest poprawne, trzeba udowodnić je za pomocą przyjętych aksjomatów lub zdań już udowodnionych i reguł wynikania. Istnieje przy tym wiele rozumowań poprawnych, które możemy ocenić intuicyjnie – przeważnie są one podstawieniami najważniejszych tautologii. By całe rozumowanie ocenić jako niededukcyjne i przez to zawodne, wystarczy też podanie dla rozumowania o pewnych przesłankach kontrprzykładu dla wniosku. Rozumowania, o których sądziliśmy, że są niezawodne, a w których nie zachodzi w rzeczywistości stosunek wynikania, obarczone są błędem formalnym. Istnieje wiele typowych błędów formalnych (błędne koło w rozumowaniu, błąd ekwiwokacji itp.), które logika opisuje jako błędy logiczne.

Ocena poprawności rozumowań niededukcyjnych jest zagadnieniem o wiele bardziej złożonym – nie powstała też dotychczas w logice spójna, wyczerpująca i szeroko akceptowana teoria tych rozumowań. W przypadku rozumowań nieredukcyjnych daje się zauważyć rozdźwięk między standardami przyjętymi w naukach przyrodniczych a rozumowaniami indukcyjnymi przeprowadzanymi na co dzień. Te przeprowadzane na co dzień są zazwyczaj bardzo fragmentaryczne i nieprecyzyjne – dlatego też szczególnie fragmentaryczne i nieprecyzyjne muszą być kryteria ich oceny. Jednak dla wszystkich rozumowań redukcyjnych, także naukowych, nie da się wskazać pełnego zestawu reguł poprawności – można wymienić tylko najbardziej podstawowe. Można je uznać za poprawne np. jeśli ich przesłanki trudno zakwestionować, jeśli nie są one subiektywnie pewne, jeśli nie zachodzi wyraźna dysproporcja między przyjmowaną pewnością wniosku a przyjmowaną pewnością przesłanek, jeśli ich wyniki nie są niezgodne z podstawowymi składnikami dotychczasowej wiedzy o świecie, jeśli nie przecenienia się prawdopodobieństwa prawdziwości wniosku w świetle przesłanek itp. Typowe sytuacje, w których przecenia się prawdopodobieństwo wniosku w świetle przesłanek to opieranie się na zbyt małej liczbie obserwacji, opieranie się na zbyt małej próbie danej zbiorowości, opieranie się na niereprezentatywnej próbie danej zbiorowości, ignorowanie obserwacji niezgodnych z konkluzją ze względu na stronniczość obserwatora, utożsamienie zwykłego następstwa czasowego dwóch stanów rzeczy ze związkiem przyczynowo-skutkowym, założenie że każde zjawisko ma tylko jedną przyczynę, nie branie pod uwagę alternatywnych hipotez.

Tak rozumowania redukcyjne, jak i dedukcyjne mogą być obciążone błędem mętności. Rozumowania mętne to takie rozumowania, w których wniosek lub przesłanki zostały sformułowane niejasno – tak, że istnieje wiele sposobów ich interpretacji. Szczególnymi przypadkami rozumowań mętnych są rozumowania obciążone błędem kwantyfikacji lub kwalifikacji, rozumowania, dla których na skutek entymematyczności nie da się ustalić, czy mają one charakter dedukcyjny czy redukcyjny przez rozumowanie enigmatyczne (takie, w których nie da się odgadnąć części przemilczanych). W przypadku rozumowań mętnych można starać się o przeprowadzenie oceny poprawności argumentacji na drodze ustalania za pomocą kontekstu tego, jakie były intencje ich twórcy. Jeśli jednak interpretacja znaczenia przesłanek i wniosku rozumowania nie jest możliwa (szczególnie, gdy nie jest w stanie podać jej sam twórca rozumowania) nie jest możliwa także żadna analiza jego poprawności.

Bibliografia

Teresa Hołówka, Kultura logiczna w przykładach, 2005

Tadeusz Kotarbiński, Elementy teorii poznania, logiki formalnej i metodologii nauk, 1986

Przypisy

^ Tadeusz Kotarbiński, Elementy teorii poznania, logiki formalnej i metodologii nauk, 1986, str. 207–226.

^ Jan Łukasiewicz, O nauce, w: Poradnik dla samouków, Warszawa 1915

^ Tadeusz Czeżowski, Główne zasady nauk filozoficznych, 1959

^ Kazimierz Ajdukiewicz, Klasyfikacja rozumowań, w: Język i poznanie, t. 2, 1965

Źródło „https://pl.wikipedia.org/wiki/Rozumowanie”

Teoria

Teoria to system pojęć, definicji, aksjomatów i twierdzeń ustalających relacje między tymi pojęciami i aksjomatami, tworzący spójny system pojęciowy opisujący jakąś wybraną fizyczną lub abstrakcyjną dziedzinę.

W przypadku nauk przyrodniczych, inżynieryjnych i nauk humanistycznych teorie są tworzone w celu systematyzowania i racjonalizowania faktów, wyjaśniania powodów ich występowania, przewidywania przyszłych zdarzeń, oraz budowy nowych systemów/urządzeń/broni.

W dziedzinie nauk ścisłych i systemowych niektóre teorie zajmują się ogólnymi własnościami i zasadami tworzenia teorii „praktycznych”, tzn. dotyczących świata fizycznego i działalności ludzkiej, oraz ich logiczną analizą. Takie teorie są meta-teoriami.

Niedowiedziona faktami lub dowodem matematycznym teoria to hipoteza. Zbiór podstawowych pojęć i twierdzeń teorii danej nauki nazywa się jej paradygmatem.

Należy też podkreślić, że stwierdzenie „(coś) w praktyce, a (coś) w teorii” posługuje się innym rozumieniem tych terminów. Jest skrótem myślowym przydatnym raczej poza dyskursem naukowym.

W języku potocznym stwierdzenie „to jest teoria”, znaczy często, że uprzednio wymienione stwierdzenia lub reguły reprezentują pewien uproszczony model rzeczywistości, który w specyficznych warunkach dyskutowanego problemu albo jest nieprawdziwy albo praktycznie nieosiągalny/nierealizowalny (np. modele normatywne, typu: tak być powinno).

W przestrzeni nauki (dobra) teoria „mówi jak jest” w praktyce. Jeśli praktyka dowodzi czegoś innego, wtedy teoria upada albo jej stosowanie zawęża się do określonych warunków. Na przykład teoria Newtona może być stosowana jedynie do opisu ciał poruszających się z prędkością dużo mniejszą od prędkości światła.

Referencje

Wprowadzenie do logiki i do metodologii nauk dedukcyjnych, Alfred Tarski, wydawca „ALEPH”,1994. Tłumaczenie M.Sujczyńska

Meta-teoria TOGA (Top-down Object-based Goal-oriented Approach), Adam Maria Gadomski, 1993.

Zobacz też

teoria (logika)

meta-teoria

hipoteza

meta-wiedza

Przykłady teorii

teoria naukowa – w metodologii pracy naukowej

teoria spiskowa – w naukach społecznych

teoria telomona – w botanice.

teoria katastrof – interdyscyplinarna, w matematyce i systemice

teoria zbiorów – w matematyce

Źródło „https://pl.wikipedia.org/wiki/Teoria”

Metateoria

Z Wikipedii

(Przekierowano z Meta-teoria)Brak wersji przejrzanej

Znaczenie terminu metateoria wynika ze znaczenia przedrostka meta – i pojęcia teoria. Metateoria to teoria dotycząca pewnych formalnych własności jakiejś teorii lub zbioru teorii.

Można też mówić o zdaniach metateoretycznych, np. stwierdzenie „Ta teoria jest fałszywa” jest zdaniem metateoretycznym.

Metateorie o własnościach teorii matematycznych są rozwijane w matematyce.

Według systemowej meta-teorii TOGA (1993) (ang), jeśli T jest teorią dotyczącą dziedziny D, T(D), dany jest zbiór dziedzin {Ti(Di)} to metateoria MT jest teorią której dziedziną jest zbiór{Ti}, czyli MT({Ti}). Dla odróżnienia, teorią ogólną będzie w tym przypadku teoria T({Di}).

Zobacz też

Encyklopedia Britannica – on line (ang)

metawiedza

metamodel

metadane

Źródło: „https://pl.wikipedia.org/wiki/Metateoria”

Hipoteza

Brak wersji przejrzanej

Ten artykuł dotyczy pojęcia z dziedziny logiki i filozofii. Zobacz też: hipoteza (prawo).

Zobacz hasło hipoteza w WikisłownikuHipoteza (gr. hypóthesis – przypuszczenie) – osąd, teoria, które podlegają weryfikacji.

Stawianie i testowanie hipotez to jeden z podstawowych procesów twórczego myślenia oraz fundamentalny element procesu tworzenia nauki.

Spis treści

1 Weryfikacja

2 Definicje

3 Przykłady hipotez

4 Przypisy

5 Zobacz też

Weryfikacja

Weryfikacja hipotezy polega na wykonaniu doświadczeń sprawdzających efekty przewidywane przez tę hipotezę. Weryfikacja nie jest jednoznacznie możliwa dla zjawisk:

w przypadku braku odzwierciedlenia przewidywania w mierzalnym parametrze zjawiska;

weryfikacja hipotez empirycznych, sformułowanych jako zdanie ogólne nie jest jednoznacznie możliwa (wynika to z istoty dowodu indukcyjnego) [1]

Definicje

wg Tadeusza Kotarbińskiego to „… takie przypuszczenie dotyczące zachodzenia pewnych zjawisk lub zależności, które pozwala wyjaśnić jakiś niewytłumaczalny dotąd problem”

wg Kazimierza Ajdukiewicza to „… nieprzyjęta jeszcze racja wyjaśnienia jakiegoś faktu, którą podajemy procedurze sprawdzania”

wg Józefa Pietera to „… naukowe przypuszczenie co do istnienia lub nieobecności danego faktu w określonym miejscu i czasie”.

Przykłady hipotez

hipoteza Sapira-Whorfa (lingwistyka)

hipoteza Riemanna (teoria liczb)

hipoteza Goldbacha (teoria liczb)

hipoteza continuum (teoria mnogości)

hipoteza ergodyczna (mechanika statystyczna)

Przypisy

^ Arno Anzenbacher, Wprowadzenie do filozofii, s 227, UNUM, Kraków-1992

Zobacz też

weryfikacja hipotez statystycznych

nauka

teoria

sztuka (jako inny przykład twórczego myślenia)

architektura (jako inny przykład twórczego myślenia)

Źródło „https://pl.wikipedia.org/wiki/Hipoteza”

Teoria (logika)

Z Wikipedii

Brak wersji przejrzanej

W logice matematycznej teorią nazywamy niesprzeczny zbiór zdań. Dokładniej, niech T będzie zbiorem zdań zapisanych w pewnym języku L. Wtedy T jest teorią, jeśli nie istnieje zdanie napisane w języku L takie że T dowodzi zarówno tego zdania, jak i jego zaprzeczenia. Zbiór zdań T dowodzi zdania X, jeśli można przeprowadzić formalny dowód zdania X przy użyciu zdań ze zbioru T oraz aksjomatów i reguł dowodzenia klasycznego rachunku logicznego.

Czasami w definicji teorii dodatkowo zakłada się, że jest ona zamknięta ze względu na operację brania konsekwencji logicznej. Oznacza to, że jeśli teoria T dowodzi jakiegoś zdania X, to zdanie X musi należeć do T.

Twierdzenie o zwartości mówi, że zbiór zdań jest niesprzeczny, jeśli każdy jego skończony fragment jest niesprzeczny. W świetle powyższej definicji niesprzeczności wydaje się to oczywiste, bo jeśli z danego zbioru zdań możemy udowodnić zarówno jakieś zdanie, jak i jego zaprzeczenie, to możemy też przeprowadzić ten sam dowód korzystając tylko za skończenie wielu zdań z tego zbioru. Jeśli jednak badamy to zagadnienie z punktu widzenia semantyki, a nie syntaktyki, to potrzebujemy twierdzenia o istnieniu modelu, które w 1931 roku udowodnił austriacki logik i matematyk Kurt Gödel. Mówi ono, że każda spójna teoria (tzn. taka w której nie istnieje dowód sprzeczności) ma model i umożliwia badanie własności dowolnej teorii przy użyciu metod teorii modeli.

Teoria T w języku L jest zupełna, jeśli dla każdego zdania X napisanego w języku L w teorii T można dowieść zdania X lub jego zaprzeczenia (tj.: suma domknięcia T ze wzgl. na wyprowadzanie oraz jego negacji jest równa zbiorowi wszystkich zdań w L). Przy użyciu zakładanego zwykle przez matematyków aksjomatu wyboru można wykazać, że każdą teorię w jakimś języku L można rozszerzyć do teorii zupełnej w tym języku.

Teoria T w języku L jest rozstrzygalna, jeśli istnieje algorytm, który dla każdego zdania X napisanego w języku L rozstrzyga, czy T dowodzi X.

Teoria T jest kategoryczna, jeśli T ma dokładnie jeden model z dokładnością do izomorfizmu. Jest to raczej rzadkie zjawisko, bo kategoryczne są tylko te teorie, które są zupełne i mają model skończony. Dlatego osłabia się tę definicję i mówi, że teoria T jest kategoryczna w mocy m, jeśli T ma dokładnie jeden model mocy m z dokładnością do izomorfizmu.

Zobacz też

Przegląd zagadnień z zakresu matematyki.

Źródło: „https://pl.wikipedia.org/wiki/Teoria_(logika)”

Inżynieria

Ten artykuł dotyczy działalności. Zobacz też: Inżynier – tytuł zawodowy.

Zobacz hasło inżynieria w WikisłownikuInżynieria – działalność polegająca na projektowaniu, konstrukcji, modyfikacji i utrzymaniu efektywnych kosztowo rozwiązań dla praktycznych problemów, z wykorzystaniem wiedzy naukowej oraz technicznej. Działalność ta wymaga rozwiązywania problemów różnej natury oraz skali. Bardziej ogólnie, inżynieria zajmuje się też rozwojem technologii.

W ściślejszym (systemowym) sensie, inżynieria to używanie właściwości materii, energii oraz obiektów abstrakcyjnych dla tworzenia konstrukcji, maszyn i produktów, przeznaczonych do wykonywania określonych funkcji lub rozwiązania określonego problemu.

Inżynier wykorzystuje wyobraźnię i doświadczenie, umiejętność oceny i rozumowanie, stosując świadomie własną wiedzę do projektowania, tworzenia, eksploatacji i usprawnienia użytecznych maszyn oraz procesów (np. inżynieria procesów produkcji, inżynieria środowiska, bioinżynieria).

Spis treści

1 Historia

1.1 Etymologia

1.2 Rozwój inżynierii

2 Metodologia

2.1 Rozwiązywanie problemów

2.2 Testowanie rozwiązań

2.3 Zastosowanie komputerów

3 Inżynieria a inne dyscypliny

3.1 Inżynieria i nauka

3.2 Inżynieria i medycyna

3.3 Inżynieria, rzemiosło i sztuka

4 Inżynieria w kulturze

4.1 Żelazny pierścień

4.2 Żarty na temat inżynierów

5 Klasyfikacja

6 Zobacz też

7 Linki zewnętrzne

Historia

Etymologia

Słowa „inżynieria” i „inżynier” pochodzą od francuskich słów ingénieur oraz ingénierie. Określenia te pochodzą z kolei od starofrancuskiego terminu engigneor, które oznaczało konstruktora machin wojennych.

Angielskie słowa engineering oraz engineer, choć podobne w brzmieniu, mają zupełnie inny rodowód. Co więcej, nie pochodzą one, jak można by przypuszczać, od słowa engine (maszyna) lecz od łacińskiego ingeniosus oznaczającego osobę wyszkoloną.

Rozwój inżynierii

Historia pojęcia „inżynieria” sięga starożytności, kiedy ludzkość dokonała takich wynalazków jak koło, dźwignia czy bloczek. W tym kontekście „inżynier” oznacza osobę dokonującą praktycznych i użytecznych odkryć.

Przykładami dokonań starożytnej inżynierii są takie dzieła jak Akropol i Partenon w Grecji, Via Appia i Koloseum w Rzymie, Wiszące Ogrody czy Piramidy w Gizie.

Najstarszym znanym z imienia inżynierem jest Imhotep, jeden z urzędników faraona Dżesera, który był projektantem i budowniczym Piramidy schodkowej w latach ok. 2630–2611 p.n.e. Przypuszcza się również, że był on pierwszym, który użył kolumn w architekturze.

Za pierwszego inżyniera elektryka uważa się Williama Gilberta, który w roku 1600 w publikacji De Magnete użył jako pierwszy terminu elektryczność.

Pierwszą maszynę parową zbudował w 1698 r. inżynier mechanik Thomas Savery. Rozwój tego urządzenia, pozwalający na wdrożenie masowej produkcji, zapoczątkował w kolejnych dekadach rewolucję przemysłową.

Wraz z ukonstytuowaniem się inżynierii jako zawodu w XIX w., termin ten zaczął być stosowany w sposób bardziej wąski, do dziedzin, w których używano nauk przyrodniczych i matematyki.

Inżynieria elektryczna ma swoje źródło w eksperymentach z początków XIX w. dokonywanych przez Alessandro Volty oraz późniejszych Michaela Faradaya, Georga Ohma, André Marie Ampere’a i innych, których najważniejszym efektem było wynalezienie silnika elektrycznego. Prace Jamesa Maxwella oraz Heinricha Hertza pod koniec XIX w. wyznaczają początek elektroniki. Późniejsze wynalazki lampy próżniowej oraz tranzystora doprowadziły do rozwoju elektroniki i elektrotechniki, tak że obecnie są to najczęściej uprawiane dziedziny inżynierii.

Wynalazki Thomasa Savery’ego i Jamesa Watta doprowadziły do powstania w Wielkiej Brytanii współczesnej inżynierii mechanicznej. Rozwój wyspecjalizowanych maszyn i narzędzi w czasie rewolucji przemysłowej doprowadził do gwałtownego rozwoju tej dziedziny wiedzy. Tym niemniej, choć współczesna inżynieria mechaniczna powstała w XIX w., jej początki sięgają starożytności, kiedy to konstruowano wiele maszyn do użytku cywilnego i wojskowego. Jednym z najbardziej znanych przykładów jest Mechanizm z Antykithiry, maszyna o stopniu złożoności niespotykanym aż do XIV w. Wiele wynalazków z tamtych czasów, głównie skonstruowanych lub ulepszonych przez Archimedesa (śruba Archimedesa, przenośnik śrubowy) wymagały umiejętności i wiedzy, która pozostaje w użyciu do dnia dzisiejszego w rozmaitych zastosowaniach.

Powstanie inżynierii procesowej ma również źródło w czasach rewolucji przemysłowej. Została ona wymuszona przez zapotrzebowanie na nowe materiały i nowe procesy wytwarzania konieczne do produkcji na skalę przemysłową. Zapotrzebowanie to było tak silne, że powstała nowa gałąź przemysłu zajmująca się opracowywaniem i masową produkcją chemikaliów. Rolą inżynierii chemicznej było zaprojektowanie i eksploatacja fabryk zajmujących się tą produkcją.

Pierwszy doktorat z dziedziny inżynierii (ściślej, z dziedziny nauk stosowanych i inżynierii) w Stanach Zjednoczonych uzyskał Willard Gibs na Uniwersytecie Yale.

Metodologia

Metodologie są coraz ważniejszym elementem inżynierii, różne jej dziedziny jak również większe firmy rozwijają swoje własne metodologie, niemniej poszukuje się ciągle uniwersalnej metodologii inżynieryjnej, niezależnej od specyfiki dziedzin inżynierii i używanych instrumentów. W ten sposób, urodziły się nowe dziedziny badań i zastosowań, takie jak inżynieria systemów, inżynieria wiedzy oraz inżynieria meta-wiedzy. Najbardziej ogólnie, pierwszym zadaniem każdego inżyniera jest zrozumienie celu zadania, wymagań i ograniczeń dotyczących oczekiwanego rozwiązania lub produktu. Zwykle nie jest wystarczającym jego zaprojektowanie i wykonanie w dowolny sposób, należy wziąć pod uwagę dodatkowe cechy rozwiązania. Może to być związane z wymaganiami co do jakości, dostępnością surowców, energochłonnością rozwiązania, ograniczeniami technicznymi lub fizycznymi oraz z możliwościami wprowadzania zmian w istniejącym już rozwiązaniu, łatwością produkcji, wdrożenia i serwisowania. Tylko mając na uwadze wszystkie wymagania potencjalnego użytkownika, ograniczenia technologiczne i ekonomiczne, inżynier może przystąpić do zaprojektowania i wykonania otrzymanego zadania.

Rozwiązywanie problemów

Inżynierowie rozwiązują problemy konieczne do rozwiązania, ale zwykle nie określone na początku zbyt jednoznacznie, dlatego też zwykle możliwych jest kilka rozwiązań. Inżynierowie muszą zatem oceniać wiele możliwości pod kątem ich przydatności, bezpieczeństwa i ekonomii, i na tej podstawie wybierać rozwiązania najlepiej spełniające założone wymagania wyjściowe. Stworzenie odpowiedniego modelu matematycznego jest zwykle niezbędnym narzędziem inżyniera, pozwalającym analizować i testować potencjalne rozwiązania.

Po przeanalizowaniu wielu istniejących patentów Genrich Altshuller postawił, tezę, iż na „niskim poziomie” rozwiązania inżynierskie są oparte na kompromisach, podczas gdy na „wyższym poziomie” praca inżyniera prowadzi do wybrania jako najlepszego takiego rozwiązania, które eliminuje główną trudność problemu.

Mimo stosowania różnych matematycznych algorytmów optymalizacji, inżynieria zadowala się zwykle rozwiązaniami wystarczającymi.

Testowanie rozwiązań

Test zderzeniowy samochodu w firmie General Motors.W inżynierii szeroko używane są testy i analizy przed wdrożeniem rozwiązań, w celu oceny ich zachowania. Używane są, między innymi: prototypy, zmniejszone lub uproszczone modele, symulacje, testy niszczące i nieniszczące oraz próby zmęczeniowe. Zadaniem testów jest zagwarantowanie działania rozwiązania zgodnie z założeniami.

Wprowadzanie rozwiązania inżynierskiego jest często obarczone poważną odpowiedzialnością. Inżynierowie muszą projektować i wdrażać rozwiązania, które nie wyrządzą żadnych nieprzewidzianych i niezamierzonych szkód. Z tego powodu gotowe rozwiązanie zawiera często „czynnik bezpieczeństwa” (inaczej: jest „przewymiarowane”), aby zmniejszyć ryzyko wadliwego funkcjonowania. Jednakże im większy jest „czynnik bezpieczeństwa”, tym mniej efektywne jest samo rozwiązanie.

Zastosowanie komputerów

Model struktury w programie typu CAD.Komputery są nieodłącznym narzędziem współczesnej inżynierii. Wspomagają one inżynierów na każdym etapie pracy, od projektowania poprzez produkcję i serwisowanie urządzeń.

Użycie komputerów do projektowania pozwala na przyspieszenie i ułatwienie tego procesu. W wielu przypadkach modelowanie komputerowe pozwala uniknąć konstruowania i testowania kosztownych prototypów. Specjalistyczne oprogramowanie oferuje ponadto inżynierowi bazy danych gotowych rozwiązań do wykorzystania w bieżącej pracy, a także jest stanie wygenerować zestaw instrukcji dla sterowanych cyfrowo maszyn, co znakomicie upraszcza proces produkcji.

Komputery są także wszechobecne na etapie produkcji, zapewniając szybkość i dokładność tego procesu niedostępną człowiekowi.

Inżynieria a inne dyscypliny

Inżynieria i nauka

You see things; and you say “Why?”. But I dream things that never were; and I say “Why not?”. — George Bernard Shaw

(Widzisz rzeczy, które są, i pytasz: „Dlaczego?”. Lecz ja śnię o rzeczach, które nie istnieją, i pytam: „Dlaczego nie?”.)

Związki inżynierii i nauki są od zawsze bardzo silne, jednak nie należy uważać inżynierii za naukę, mimo podobieństwa stosowanych metod. Naukowiec, gdy pojawia się problem, stawia pytanie dlaczego i stara się znaleźć jego najbardziej ogólne rozwiązanie. Tymczasem inżynier chce wiedzieć jak praktycznie rozwiązać problem i jak wdrożyć rozwiązanie. Inaczej rzecz ujmując, naukowcy starają się wyjaśnić istniejące zjawiska, podczas gdy inżynierowie używają dostępnych środków, nie tylko naukowych, by zbudować rozwiązania nowych problemów.

Problem z uznaniem inżynierii za naukę jest również związany z faktem, iż trudno jest ustalić definicję nauki. W Polsce można uznać tożsamość określenia nauki techniczne oraz inżynierii.

Interferometr Michelsona.Bardzo często inżynieria i nauki podstawowe oraz stosowane działają na wspólnym polu. Naukowcy często włączają się w proces praktycznego wykorzystania swoich odkryć, stając się tym samym inżynierami. Stają się nimi również przy okazji konstrukcji prototypów lub układów pomiarowych służących im w badaniach.

Odpowiednio, w procesie postępu technologicznego, inżynierowie odkrywają nowe zjawiska, stając się naukowcami.

Tym niemniej, charakter badań naukowych w inżynierii jest inny niż w przypadku nauki.

Po pierwsze, inżynier ma często do czynienia ze zjawiskami, które są dobrze poznane, lecz problemy z nimi związane są zbyt złożone, by można je było rozwiązać w sposób dokładny. Badania naukowe w inżynierii skupiają się więc na znalezieniu metod rozwiązywania tych zagadnień w sposób przybliżony a jednocześnie jak najbardziej dokładny. Przykładem może być opracowanie metoda elementów skończonych i jej implementacja w programach komputerowych, jako rozwiązania umożliwiającego obliczanie wyników równań różniczkowych, które w nauce znane są od dawna. Po drugie, inżynierowie używają wielu „quasi-empirycznych” metod, które obce są „czystej” nauce. Można również stwierdzić, iż naukowcy budują, by się uczyć, podczas gdy inżynierowie uczą się, aby budować.

Pomiędzy inżynierią i nauką istnieje sprzężenie zwrotne, przejawiające się we wzajemnej stymulacji rozwoju przez te dyscypliny. Nauka odkrywając nowe zjawiska umożliwia konstruowanie coraz doskonalszych aparatów badawczych, które z kolei umożliwiają odkrywanie kolejnych zjawisk.

Inżynieria i medycyna

Instrument do pomiaru ciśnienia tętniczego krwi.Istnieją znaczące analogie pomiędzy inżynierią i medycyną. Obydwie dyscypliny polegają na rozwiązywaniu problemów przy użyciu wiedzy, doświadczenia i intuicji. Ponadto cechuje je ten sam pragmatyzm, spowodowany koniecznością proponowania rozwiązań zanim pewne zjawiska zostaną do końca wyjaśnione w sposób naukowy.

Inżynieria, rzemiosło i sztuka

Praca inżyniera, rzemieślnika i artysty jest w pewnym stopniu podobna. Sztuka i rzemiosło, podobnie jak inżynieria, opierają się na tworzeniu z tą różnicą, że w inżynierii pierwszoplanową rolę gra wiedza techniczno-naukowa, podczas gdy w rzemiośle najważniejsze jest doświadczenie a w sztuce kreatywność.

Inżynieria w kulturze

Inżynieria była zwykle postrzegana jako temat w pewnym sensie mało interesujący i zbyt trudny dla kultury masowej. Uważano ją za domenę ludzi mało ciekawych i oderwanych od powszechnych problemów życiowych (z wyjątkiem pewnego romantyzmu jaki pojawia się w subkulturze hakerów).

W XIX wieku, zwanym wiekiem „pary i elektryczności”, w krajach zachodnich istniało pewne zainteresowanie profesją inżyniera, takie osobistości jak Isambard Kingdom Brunel, George i Robert Stephensonowie, Thomas Telford czy Gustave Eiffel stały się w pewien sposób symbolami nowej epoki a problemy inżynierskie bywały często tematem codziennych rozmów.

Kapitan Nemo za sterem łodzi podwodnej Nautilus.W literaturze popularnej nieliczne są postaci inżynierów. Najbardziej słynne są chyba postaci stworzone przez francuskiego pisarza Juliusza Verne w jego powieściach, na czele z najbardziej znanym Kapitanem Nemo.

Obecnie inżynierowie najczęściej pojawiają się w powieściach i filmach science fiction, zwykle przedstawiani jako osobnicy pragmatyczni, o olbrzymiej wiedzy technicznej i godni szacunku. Typowym przykładem są postaci z serialu Star Trek – Montgomery Scott i Geordi La Forge. W polskiej literaturze postać inżyniera pojawia się często w powieściach Stanisława Lema, grając drugoplanowe lub nawet pierwszoplanowe role.

Żelazny pierścień

W Ameryce Północnej można niekiedy rozpoznać inżynierów po „żelaznym pierścieniu” noszonym na palcu obrączkowym (serdecznym). Jest to obrączka wykonana z żelaza lub stali nierdzewnej, mająca symbolizować dumę i oddanie profesji inżyniera. Tradycja ta narodziła się w Kanadzie, później rozprzestrzeniła się również do Stanów Zjednoczonych.

Żarty na temat inżynierów

W środowiskach naukowców oraz użytkowników Internetu krąży wiele dowcipów na temat inżynierów. Żart jest zwykle oparty na obiegowych opiniach na temat charakteru inżyniera i na specyficznym sposobie patrzenia przez przedstawicieli tej profesji na świat. Kilka przykładów podano poniżej:

Dla optymisty szklanka wypełniona do połowy wodą, jest w połowie pełna – dla pesymisty jest w połowie pusta. Dla inżyniera ta sama szklanka jest dwukrotnie większa niż powinna.

Pewnego dnia ksiądz, lekarz i inżynier grali w golfa, lecz dość szybko utknęli za grupką poruszających się z trudem graczy, którzy najwyraźniej nie potrafili trafić piłeczką do dołka. Zapytali więc właściciela pola golfowego, co to za ludzie. Odparł – „To niewidomi weterani wojenni. Pozwalamy im tu grać, kiedy mają ochotę”. Ksiądz odpowiedział – „Och, będę się modlił w ich intencji”. Lekarz dodał – „Mam nadzieję, że postęp medycyny pozwoli pewnego dnia im pomóc”. Inżynier powiedział – „A czy oni nie mogliby grać w nocy?”

Klasyfikacja

Tradycyjnie gałęzie inżynierii wydzielane były biorąc za punkt odniesienia dziedzinę nauki, obecnie także zależą od aktywności ludzkiej i dziedziny w której są stosowane, w ten sposób mamy coraz to więcej rodzajów inżynierii interdyscyplinarnych, np.:

Akustyka,

Automatyka i Robotyka,

Inżynieria biomedyczna,

Inżynieria bezpieczeństwa,

Inżynieria chemiczna,

Inżynieria elektryczna,

Inżynieria elektroniczna lub (potocznie) elektronika,

Inżynieria energetyczna,

Inżynieria genetyczna,

Inżynieria górnicza,

Inżynieria kwantowa,

Inżynieria lądowa,

Inżynieria materiałowa,

Inżynieria mechaniczna,

Inżynieria meteorologiczna,

Inżynieria ochrony środowiska,

Inżynieria oprogramowania,

Inżynieria ortopedyczna,

Inżynieria przemysłowa,

Inżynieria społeczna,

Inżynieria rolnicza,

Inżynieria systemów lub inżynieria systemowa,

Inżynieria środowiska,

Inżynieria transportowa,

Inżynieria wirtualna projektowania,

Inżynieria wojskowa,

Inżynieria komputerowa,

Inżynieria wiedzy,

Inżynieria socjokognitywistyczna,

Zobacz też

inżynier

politechnika

Linki zewnętrzne

inżynieria wiedzy i meta-wiedzy – przykład nowego podejścia systemowego (Adam Maria Gadomski, ang).

Źródło „https://pl.wikipedia.org/wiki/Inżynieria”

Kategoria: Nauki techniczne

Prawda

Ten artykuł dotyczy terminu filozoficznego. Zobacz też: inne znaczenia.

Prawda – cecha wypowiadanych zdań określająca ich zgodność z rzeczywistością. W mowie potocznej oraz w logice tradycyjnej prawda to stwierdzenie czegoś, co miało faktycznie miejsce lub stwierdzenie nie występowania czegoś, co faktycznie nie miało miejsca.

Problemem zdefiniowania tego pojęcia zajmowali się filozofowie od starożytności. Klasyczna definicja prawdy pochodzi od Arystotelesa i jest to zgodność sądów z rzeczywistym stanem rzeczy, którego ten sąd dotyczy.

Spis treści

1 Definicja arystotelesowska (definicja klasyczna)

2 Definicja św. Tomasza

3 Definicja Tarskiego

4 Przeciwieństwo prawdy

5 Zobacz też

6 Linki zewnętrzne

Definicja arystotelesowska (definicja klasyczna)

Arystoteles tak próbował przybliżać istotę prawdy w swojej Metafizyce:

powiedzieć, że istnieje, o czymś, czego nie ma, jest fałszem. Powiedzieć o tym, co jest, że jest, a o tym, czego nie ma, że go nie ma, jest prawdą.

Definicja ta (zwana dziś korespondencyjną definicją prawdy) oznacza, że

dane zdanie A jest prawdziwe wtedy i tylko wtedy, gdy stan faktyczny opisany przez zdanie A ma rzeczywiście miejsce,

tzn. zdanie „Ala ma kota” jest prawdziwe wtedy i tylko wtedy, gdy Ala rzeczywiście posiada jakiegoś kota.

Przez wieki filozofowie nie potrafili znaleźć definicji prawdy, która z jednej strony byłaby formalnie poprawna (nie prowadziłaby do sprzeczności), a z drugiej adekwatna czyli bliska nieścisłemu, potocznemu rozumieniu słowa „prawda”.

Definicja św. Tomasza

Klasyczna koncepcja prawdy jest najlepiej przedstawiona u Św. Tomasza z Akwinu. Słowo „prawda” może być rozumiane trojako:

Definicja Tarskiego

Jedna z takich prób została przedstawiona w XX wieku przez polskiego logika Alfreda Tarskiego, choć miała ograniczony zasięg – odnosiła się mianowicie wyłącznie do języków formalnych.

Tarski określił prawdę jako pewną cechę zdań, wyrażalną jednak w języku zewnętrznym (czyli w metajęzyku) wobec języka, w jakim wypowiadane są owe zdania. Definicja Tarskiego dla zdań języka angielskiego – wyrażona w języku polskim jako metajęzyku dla języka angielskiego – byłaby nieskończoną koniunkcją zdań typu:

Zdanie Grass is green jest prawdziwe wtedy i tylko wtedy, gdy TRAWA JEST ZIELONA,

Zdanie Jan loves Ania jest prawdziwe wtedy i tylko wtedy, gdy JAN KOCHA ANIĘ,

Zdanie Warsaw is the capital of Poland jest prawdziwe wtedy i tylko wtedy, gdy WARSZAWA JEST STOLICĄ POLSKI, przy czym „wtedy i tylko wtedy” jest prawdziwościowym spójnikiem logicznym, natomiast zdania pisane dużymi literami są przekładem odpowiednich zdań języka angielskiego na zdania języka polskiego z zachowaniem (z dokładnością co do) ich ekstensji.

Antynomia kłamcy nie ima się tej definicji, gdyż zdanie „ja kłamię” byłoby zdaniem nie z języka polskiego, lecz właśnie z owego zewnętrznego języka, opisującego stan faktyczny i jako takie nie podlegałoby definicji Tarskiego.

Definicja Tarskiego odnosiła się jedynie do języków formalnych (do których język polski się nie zalicza) i była konstruowana nie tyle przez nieskończoną koniunkcję, co przez indukcję.

Przeciwieństwo prawdy

nieprawda

niedorzeczność

bzdura

kłamstwo

fałsz

Zobacz też

Zobacz w Wikicytatach kolekcję cytatów

o prawdzie – Prawda (logika)

Prawda materialna – pojęcie prawne

Linki zewnętrzne

Prawda – zarys pojęcia w magazynie Histmag

Rozważania „między latami”

Prawo nauki

Brak wersji przejrzanej

Prawo nauki prawo jakościowe, stała relacja między własnościami rzeczy lub zdarzeniami – prawa przyczynowe, prawa rozwojowe; prawo ilościowe, zależność funkcyjna między parametrami ciała lub układu materialnego, na przykład:

Drugie prawo fizyki Newtona (patrz. Prawa ruchu), wyraża zależność między siłą F, masą m i przyspieszeniem a; jeżeli wszystkie wyrazy w tego typu wyrażeniach przeniesiemy na jedną stronę, oraz uwzględnimy warunki, w których dane prawa są spełnione, wtedy uzyskamy jedną z postaci ogólnych prawa ilościowego:

Zobacz też

nauka

teoria

prawo (ujednoznacznienie)

prawa fizyki

Bibliografia

W. Krajewski, Prawa Nauki, Książka i Wiedza, Warszawa 1998, str. 256

Źródło: „https://pl.wikipedia.org/wiki/Prawo_nauki”

Technika

Z Wikipedii

Portal:

Technika – Zobacz Wikiprojekt:

Technika – Ten artykuł dotyczy pojęcia technika. Zobacz też: Technika (marka sprzętu elektronicznego).

Zobacz hasło technika w Wikisłowniku – Technika (z gr. techne, sztuka, umiejętność) – w znaczeniu ogólnym – całokształt środków i czynności wchodzących w zakres działalności ludzkiej związanej z wytwarzaniem dóbr materialnych, a także reguły posługiwania się nimi.

Podziału techniki można dokonać biorąc pod uwagę dziedzinę zastosowania – na przykład technika budowy maszyn, górnicza, medyczna, rolnicza. Technika jest ściśle związana z produkcją. Wraz z rozwojem techniki oraz postępem nauki nastąpiło rozszerzenie pojęcia techniki na nauki techniczne (między innymi maszynoznawstwo, materiałoznawstwo). Wiedza o sposobach przetwarzania surowców i wytwarzania wyrobów jest nazywana technologią. Działalnością badawczą w dziedzinie techniki zajmują się nauki techniczne i inżynieria. Tak zdefiniowana technika stanowi zasadniczy składnik cywilizacji i kultury.

Wiedza, której przedmiotem badań jest technika, to inżynieria.

W drugim znaczeniu technika to umiejętność bądź sposób wykonywania określonych czynności pozwalających na opanowanie kunsztu w dziedzinach takich jak ars amandi, sport, sztuka lub rzemiosło (sztuka uwodzenia, technika walki zapaśniczej, technika gry na skrzypcach, malowania obrazów itp.)

Dyscypliny związane z techniką:

akustyka

architektura i urbanistyka

atomistyka

automatyka i robotyka

biocybernetyka i inżynieria biomedyczna

maszynoznawstwo

budownictwo

elektronika

elektrotechnika

radiolokacja

energetyka

geodezja i kartografia

górnictwo

informatyka

inżynieria chemiczna

inżynieria materiałowa

inżynieria środowiska

maszynoznawstwo

materiałoznawstwo

mechanika

motoryzacja

metalurgia

poligrafia

pożarnictwo

telekomunikacja

radiotechnika

transport

kolejnictwo

lotnictwo

włókiennictwo

Zobacz też

historia techniki

Źródło „https://pl.wikipedia.org/wiki/Technika”

Staż zawodowy

Z Wikipedii

Staż zawodowy – forma nauki polegająca na zdobywaniu wiedzy w miejscu pracy. Staże mogą mieć formę płatną lub bezpłatną. Staż bywa nazywany również praktyką.

Najczęściej stażysta ma przydzielonego mentora, osobę, która uczy go zawodu.

Jedną z form stażu zawodowego jest staż podyplomowy.

Źródło: „https://pl.wikipedia.org/wiki/Staż_zawodowy”

Kultura

Kultura (z łac. colere = ‘uprawiać, dbać, pielęgnować, kształcić’) – termin ten jest wieloznaczny, pochodzi od łac. cultus agri („uprawa roli”), interpretuje się go w wieloraki sposób przez przedstawicieli różnych nauk. Kulturę można określić jako ogół wytworów ludzi, zarówno materialnych, jak i niematerialnych: duchowych, symbolicznych (takich jak wzory myślenia i zachowania).

Najczęściej rozumiana jest jako całokształt duchowego i materialnego dorobku społeczeństwa. Bywa utożsamiana z cywilizacją. Również charakterystyczne dla danego społeczeństwa wzory postępowania, także to, co w zachowaniu ludzkim jest wyuczone, w odróżnieniu od tego, co jest biologicznie odziedziczone.

Całość wiedzy na temat kultury próbuje badać dziedzina wiedzy, jaką jest kulturoznawstwo, jednak także na poszczególnych aspektach kultury uwagę skupiają: filozofia kultury, historia kultury materialnej, antropologia kulturowa, socjologia kultury, etnografia czy memetyka.

W nauce, inaczej niż w języku potocznym, termin „kultura” nie ma charakteru wartościującego.

Spis treści

Główne dziedziny kultury:

Różnorodność pojmowania kultury

Pierwotnie termin cultura wiązał się z uprawą roli, bądź hodowlą zwierząt i oznaczał przekształcanie naturalnego stanu zjawisk przyrody w stan bardziej użyteczny i przydatny człowiekowi. Obecnie w języku agronomii używa się wyrażeń takich jak: kultura rolna, kultura bakterii, bądź monokultura, co wiąże się bezpośrednio z pierwotnym znaczeniem tego słowa. Pierwszy raz w nowym znaczeniu termin został użyty przez Cycerona, który w dziele Disputationes Tusculanae użył sformułowania cultura animi (uprawa umysłu) w celu określenia pierwszej w literaturze koncepcji filozofii:

„Czymże bez ciebie bylibyśmy nie tylko my, ale czym byłoby w ogóle ludzkie życie? Tyś pozakładała miasta, ty rozproszonych ludzi powołałaś do życia społecznego, ty zespoliłaś ich między sobą najpierw przez wspólne osiedla, później przez małżeństwa, a wreszcie przez wspólnotę mowy i pisma. Tyś wynalazczynią praw, nauczycielką dobrych obyczajów i ładu”

Od tamtego czasu termin „kultura” zaczęto wiązać z czynnościami ludzkimi, które miały na celu doskonalenie, pielęgnowanie czy kształcenie. Po raz pierwszy nowoczesne zastosowanie pojęcia „kultura” pojawiło się w 1688 roku, użyte przez Samuela von Pufendorfa w pracy De iure naturae et gentium, gdzie zamieścił słowa takie jak: cultura czy cultura animi na oznaczenie wszelkich wynalazków wprowadzonych przez człowieka (takich jak instytucje społeczne, ubranie, język, moralność kierowaną przez rozum i obyczaje).

W ciągu wieków słowo to było coraz częściej używane przez filozofów, a potem i uczonych zajmujących się naukami społecznymi. Rezultatem tego oto procesu stała się jego wieloznaczność. Zasadnicze różnice pojawiają się, po przyjrzeniu się co oznacza termin „kultura” dla reprezentantów różnych nauk:

Sposoby badania zjawiska kultury

Pierwszy sposób

Sposoby badania kultury dzieli się na dwie zasadniczo odmienne grupy i wiążące się z nimi dwa różne sposoby badania zjawiska kultury. W pierwszym wypadku pojmuje się kulturę jako pewną własność ludzkich zbiorowości. Obejmuje ona cechy odróżniające ludzi od innych organizmów, które nie są społecznie ukształtowane.

Stanisław Ossowski wyróżnił dwie warstwy zjawisk kulturowych:

Ward Goodenough również wyróżnił dwa poziomy kultury, jednak rozumiał je inaczej:

Claude Lévi-Strauss uważał z kolei, że w kulturze najważniejsze są struktury, a nie to co wiąże się ze sferą psychologiczną kultury. Istotna dla kultury płaszczyzna zjawisk kulturowych znajduje się na poziomie ładu czy porządku nieuświadomionego. Inni uczeni (Stefan Czarnowski, Jan Szczepański) włączali do kultury nie tylko wzory myślenia i zachowania, ale także przedmioty materialne związane z tymi wzorami systemem grupowych znaczeń. Egzemplarz książki „Władca Pierścieni”, samochód marki Polski Fiat 126p czy komputer Odra będzie więc dla jednych uczonych elementem kultury (Czarnowski, Szczepański), a dla innych jedynie korelatem pewnych ludzkich dyspozycji (Ossowski).

Drugi sposób

W tym wypadku badacze kultury interesują się przede wszystkim treścią kultury, nie jej „ludzkim podłożem”. Badacz Kodeksu Napoleona interesuje się w tym przypadku stosunkami logicznymi występującymi między normami w nim zawartymi (normy w tym wypadku oznaczają wypowiedź o określonej treści, a nie pożądany wzorzec zachowania). Nie interesuje go ani stopień skuteczności tego kodeksu, ani to jaka była jego ocena w oczach jego użytkowników.

Inny badacz, w którego centrum zainteresowania znajdzie się Palestyński Islamski Dżihad, będzie analizował ugrupowania wchodzące w jego skład i opisywał stosunki między nimi, a nie zajmował się zasadnością powstania tej organizacji czy rozważaniem słuszności metod przez nią stosowanych (badaniem moralności zajmuje się etyka).

Definicje kultury

Problem nieokreśloności

Istnieje wiele definicji kultury, często rozbieżnych, a nawet sprzecznych. Znaczące są więc słowa niemieckiego filozofa Johanna Herdera, który już w XVIII wieku napisał w przedmowie do Myśli o filozofii dziejów:

„Nie ma nic bardziej nieokreślonego niż słowo kultura”

Badacze kultury tworzyli nowe definicje, za każdym razem uwzględniając jakiś wycinkowy, konkretny punkt widzenia na kulturę. Antropolog kultury, Ralph Linton, tak podsumował te starania:

„Istotą wszelkiej definicji kultury jest bowiem to, że wybiera pewne aspekty całego pojęcia oznaczanego owym terminem i kładzie nacisk na nie kosztem innych aspektów. Nacisk ten, a w konsekwencji także wartość definicji, będą zależały od tego, jaki szczególny cel definiujący miał na uwadze. Istnieje wiele możliwości definiowania kultury, a każda jest użyteczna w powiązaniu z dociekaniami określonego rodzaju”

On sam definiuje ją w ten sposób: „Kultura to konfiguracja wyuczonych zachowań i ich rezultatów, których elementy składowe są podzielane i przekazywane przez członków danego społeczeństwa”.

Sposoby definiowania

Różne sposoby definiowania kultury zawarte są w rozprawie A. Kroebera i C. Kluckhohna Culture. A Critical Review of Concepts and Definitions. Autorzy w swojej wyczerpującej analizie pojęcia kultura, zebrali 168 jej określeń. Najpełniejsze polskie opracowanie definicji kultury przedstawiła Antonina Kłoskowska w swej książce Kultura masowa. Krytyka i obrona. Autorka wymienia sześć sposobów definiowania kultury:

Opisowo-wyliczający (nominalistyczny)
zamieszczone zostały tu definicje prezentujące klasyczną postać wczesnych definicji etnologicznych. Najbardziej znaną z nich, jest popularna i użyteczna, definicja Edwarda Tylora: „Kultura, czyli cywilizacja, jest to złożona całość, która obejmuje wiedzę, wierzenia, sztukę, moralność, prawa, obyczaje oraz inne zdolności i nawyki nabyte przez ludzi jako członków społeczeństwa”. Tylor traktował zamiennie pojęcia „kultura” i „cywilizacja”. Inni badacze, którzy zajmowali się kulturą (szczególnie archeologowie, etnografowie i antropologowie kultury) chętnie się odwoływali do tej definicji kultury, bądź ją modyfikowali. Ruth Benedict określiła ją jako: „Kultura jest to złożona całość zawierająca nawyki nabyte przez człowieka jako członka społeczeństwa”. Definicja antropologa Bronisława Malinowskiego: „Kultura jest integralną całością składającą się z narzędzi i dóbr konsumpcyjnych, twórczych zasad różnych grup społecznych, ludzkich idei i umiejętności, wierzeń i obyczajów”.
Historyczny
definicje tu umieszczone kładą nacisk na czynnik tradycji jako mechanizm przekazywania dziedzictwa kulturowego. Definicja Stefana Czarnowskiego: „Kultura jest dobrem zbiorowym i zbiorowym dorobkiem, owocem twórczego i przetwórczego wysiłku niezliczonych pokoleń (…) Jest nią całokształt zobiektywizowanych elementów dorobku społecznego, wspólnych szeregowi grup i z racji swej obiektywności ustalonych i zdolnych rozszerzać się przestrzennie”.
Normatywny
definicje normatywne akcentują podporządkowanie się zachowań ludzi normom, wzorom, wartościom i modelom. Temu typowi definicji odpowiada ujęcie kultury, zaproponowane przez Alfreda Kroebera i Talcotta Parsonsa: „Kultura to przekazane i wytworzone treści i wzory wartości, idei i innych symbolicznie znaczących systemów, będące czynnikami kształtującymi ludzkie zachowania oraz wytwory stanowiące produkt zachowania”. Również w tym duchu kulturę definiuje Ralph Linton: „konfiguracja wyuczonych zachowań i ich rezultatów, których elementy składowe są podzielane i przekazywane przez członków danego społeczeństwa”.
Psychologiczny
definicje psychologiczne skupiają uwagę na psychicznych mechanizmach kształtowania się kultury. Analizują one mechanizmy uczenia się, formowania nawyków kulturowych, internalizacji norm obowiązujących w danej zbiorowości i wartości uznawanych przez tę zbiorowość, jak również wpływ kultury na kształtowanie osobowości jednostek. Główny nacisk kładziony jest na uczenie się i naśladownictwo jako procesy przyswajania kultury. Definicje dla tego typu sformułował Stanisław Ossowski: „Kultura jest pewnym zespołem dyspozycji psychicznych przekazywanych w łonie danej zbiorowości przez kontakt społeczny i uzależniony od całego systemu stosunków międzyludzkich”.
Strukturalny
definicje zebrane dla tego typu interesują się głównie strukturą konkretnej kultury, a więc jej zasadniczymi elementami oraz ich wewnętrznymi powiązaniami. Wyróżnia się cztery kategorie elementów kultury: materialno-techniczne, społeczne, ideologiczne oraz psychiczne (dotyczące uczuć i postaw).
Genetyczny
definicje te skupiają swoją uwagę na problemie genezy kultury, wyjaśniają jej pochodzenie. Definicje te dzieli się na dwie grupy: dotyczące wewnętrznego rozwoju kultury, wyłaniania się jednych (wyższych) form z form innych wcześniejszych (uważanych za niższe) oraz dotyczące problemu wyłaniania się kultury z natury oraz związkami, różnicami i przeciwieństwami między tymi definicjami.

Podstawowe pojęcia związane z kulturą

Kulturę można opisywać w rozumieniu wartościującym albo opisowym. To pierwsze rozumienie odwołuje się do kultur „lepszych” i „gorszych”, „wyższych” i „niższych”, bardziej lub mniej „cywilizowanych”, drugie zaś nie wartościuje zjawisk i tym samym nie używa tych pojęć.

Z powyższymi dwoma rodzajami rozumienia kultury związane są dwa przymiotniki: kulturalny (odwołujące się do pierwszego rozumienia) i kulturowy (odwołujące się do drugiego). Różnicę pomiędzy nimi można wyjaśnić na przykładzie ulicznego graffiti. Zachowanie młodych grafficiarzy, malujących na murach czy wagonach kolejowych, trudno nazwać zachowaniem kulturalnym (często określa się je jako akt wandalizmu), lecz na pewno jest ono zjawiskiem kulturowym. Nie zawsze pojęcia te są ze sobą sprzeczne, np. o obrazach Vincenta van Gogha powiemy, że są zarówno zjawiskiem kulturalnym, jak i kulturowym.

Według atrybutywnego rozumienia kultury jest ona cechą stałą i atrybutem ludzkości jako całości (ujęcie globalne) lub poszczególnego człowieka jako przedstawiciela gatunku Homo sapiens (ujęcie jednostkowe). Można mówić o kulturze tylko w liczbie pojedynczej, nigdy w liczbie mnogiej (o kulturach). Według dystrybutywnego rozumienia kultury jest ona rozumiana jako zbiór cech kultury określonej zbiorowości, np.: Polaków, rowerzystów, uczniów gimnazjum czy górników. W tym wypadku można używać pojęcia „kultury”, gdyż jest ich wiele, podobnie jak wiele jest różnych zbiorowości.

Kultura a natura

Gatunek ludzki jako jedyny gatunek na Ziemi wytworzył kulturę (zależnie od definicji wskazuje się też na kulturopodobne zachowania niektórych ssaków, ptaków i owadów). W tym sensie kultura nie jest przeciwieństwem natury, lecz stanowi jej rozwinięcie. Dzięki rozwojowi na drodze ewolucji Homo sapiens jest w stanie w sposób świadomy przeobrażać świat rzeczywisty znajdujący się wokół niego. Dlatego nazywa się często człowieka „zwierzęciem tworzącym kulturę”.

Izolowana jednostka ludzka nie jest w stanie samodzielnie wytworzyć kultury. Potrzeba do tego zbiorowości ludzkiej, przekazującej swe doświadczenia z pokolenia na pokolenie. Nawet najbardziej inteligentny człowiek pozbawiony kontaktów ze skumulowanym na drodze przekazu pokoleniowego dziedzictwem nie będzie w stanie wytworzyć jakiejkolwiek złożonej „całości kulturowej” jedynie w oparciu o swe umiejętności i dostępne mu zasoby naturalne.

W klasycznych definicjach kultury uznawano, że kultura wynika z natury (w sensie filogenetycznym), lecz jest przeciwstawna naturze (w sensie ontogenetycznym).

Na temat związku kultury z naturą powstało wiele różnorodnych teorii, przy czym wiele z nich podchodzi do tego zagadnienia w odmienny sposób. Odległe od siebie pojęciowo rozróżnienia proponują na przykład funkcjonalizm Bronisława Malinowskiego oraz pierwotna wersja psychoanalizy Zygmunta Freuda.

Bronisław Malinowski traktował kulturę jako formę zaspokajania ludzkich potrzeb, jest ona „środkiem do celu”. Zygmunt Freud również sądził, że kultura jest odpowiedzią na ludzkie potrzeby (zwłaszcza formą radzenia sobie z popędem seksualnym). Jednak uznał, że potrzeby te są represjonowane poprzez system kontroli moralnej i prawnej oraz dostarczanie:

„(…) zastępczego, częściowego i niedoskonałego zaspokojenia w sztuce, nauce, religii. Kultura jest siłą tamującą raczej niż realizującą pierwotne i autentyczne popędy natury”.

Socjobiolog Edward Osborne Wilson natomiast przeciwstawiając się podejściu Freuda przyjmuje tezę, że kultura nie przeciwstawia się naturze, lecz sprzyja ona adaptatywnym wzorcom, jak chociażby unikanie chowu wsobnego, co byłoby niekorzystne dla gatunku. Kazirodztwo w jego ujęciu, przeciwstawnym wobec Freuda, nie jest więc hamowanym przez kulturę instynktem, lecz poprzez to, że kultura we wszystkich społeczeństwach sprzeciwia się kazirodztwu, argumentuje że jest to genetycznie wdrukowany wzorzec, na bazie którego powstało wiele motywów rozwijających kulturę.

Dekonstrukcja binarnego i opozycyjnego podziału na naturę i kulturę, zasygnalizowana wcześniej przez ruch New Age i teorie krytyczne, została w ostatnich latach podjęta przez nurty filozoficzne określające się jako posthumanistyczne. Wypowiadali się na ten temat zwłaszcza Bruno Latour, Donna Haraway, Rosi Braidotii, a w Polsce m.in. Monika Bakke[1][2].

Kultura a cywilizacja

Część badaczy, np. Edward Tylor stosuje te pojęcia zamiennie. Inni zaś podają różnice pomiędzy nimi. Według Alfreda Webera cywilizacja to efekt dążenia do racjonalizacji życia ludzkiego i adaptacji do zewnętrznych warunków (elementami cywilizacji są wszelkie wynalazki i udoskonalenia techniczne), podczas gdy:

„kultura sytuuje się poza sferą wymogów adaptacyjnych, tam, gdzie zaczyna się kształtowanie naszego życia przez wyznaczanie mu celów, których nie da się wyprowadzić z potrzeby dalszej egzystencji albo lepszego zaspokajania naturalnych potrzeb życiowych”

Lewis Morgan określał jako cywilizację najwyższe stadium rozwoju ogólnie rozumianej kultury (stadium to następowało po etapie dzikości i barbarzyństwa).

Różnorodność kultur

Mimo że kultura jest atrybutem człowieka i co za tym idzie wszystkich społeczności tworzonych przez gatunek Homo sapiens nie jest ona jednolita i w różnych okresach historycznych, jak również w różnych obszarach geograficznych wytwory ludzkie, systemy norm i wartości były i są od siebie odbiegające w dużym stopniu. Przedstawiciele nauk społecznych starają się klasyfikować pewne typy kultur czy też opisywać szczególne przypadki istniejących obecnie lub w przeszłości, nadając im nazwy specyficzne ze względu na miejsce, czas bądź ogólny typ opisywanej kultury.

Wybrane ogólne typy kultur

Systemy kultury

Niektóre szczególne typy kultur

Istotne cechy kultury i płaszczyzny zjawisk kulturowych

Kultura związana jest z człowiekiem. Jest zjawiskiem społecznym i powtarzalnym (naukowiec, który nie ujawni swego wynalazku szerszemu gronu, nie włączy go tym samym do elementów kultury, lecz po jakimś czasie zrobić to może inny uczony, który niezależnie od niego doszedł do tych samych wniosków). Kultura jest zbiorem zjawisk wyuczonych (czyli przekazywanych nie za pośrednictwem genów, lecz na drodze wychowania i uczenia się).

Kultura ma charakter czasowy i przestrzenny. Kultura jest systemem, a więc każda pojedyncza kultura ma własną wewnętrzną logikę. Kultura jest też mechanizmem adaptacyjnym człowieka, jest pośrednikiem między człowiekiem a środowiskiem, które ten zamieszkuje.

Płaszczyzny zjawisk kulturowych

Inne ważne pojęcia związane z kulturą

Bibliografia

Antropologia kultury. Zagadnienia i wybór tekstów (Warszawa 1995)

Antonina Kłoskowska: Socjologia kultury (Warszawa 1981)

Encyklopedia kultury polskiej. T.1. Pojęcia i problemy wiedzy o kulturze (Wrocław 1991)

Marian Filipiak: Socjologia kultury. Zarys zagadnień (Lublin 1996)

J. Kmita, G. Banaszak: Społeczno-regulacyjna koncepcja kultury (Warszawa 1994)

Zobacz też

Cytaty w Wikicytatach

Wiadomości na Wikinews

Europejska Stolica Kultury

agronomia

geografia kultury

krajobraz kulturowy

kulinaria

pluralizm kulturowy

protokultura

wartości kultury

funkcje sztuki

dobra kultury

subkultura

wolna kultura

Paradygmat

(Przekierowano z Paradygmat (nauka))Brak wersji przejrzanej

Ten artykuł dotyczy nauki. Zobacz też: inne znaczenia tego słowa.

W Oxford English Dictionary paradygmat jest zdefiniowany jako wzorzec lub najogólniejszy model lub jako wzorcowy przykład. Termin ten jest używany w wielu naukach w powyższym sensie ale dotyczy tylko ich podstawowych założeń.

Paradygmat – w rozumieniu wprowadzonym przez filozofa Thomasa Kuhna w książce Struktura rewolucji naukowych (The Structure of Scientific Revolutions) opublikowanej w 1962 r. – to zbiór pojęć i teorii tworzących podstawy danej nauki. Teorii i pojęć tworzących paradygmat raczej się nie kwestionuje, przynajmniej do czasu kiedy paradygmat jest twórczy poznawczo – tzn. za jego pomocą można tworzyć teorie szczegółowe zgodne z danymi doświadczalnymi (historycznymi), którymi zajmuje się dana nauka.

Najogólniejszym paradygmatem jest paradygmat metody naukowej, jest to kryterium uznania jakiejś działalności za naukową.

Paradygmat od tzw. dogmatu odróżnia kilka zasadniczych cech:

nie jest on dany raz na zawsze – lecz jest przyjęty na zasadzie konsensusu większości badaczy

może okresowo ulec zasadniczym przemianom prowadzącym do głębokich zmian w nauce zwanych rewolucją naukową (zobacz Experimentum crucis);

podważa sens absolutnej słuszności.

Dobry paradygmat posiada kilka cech i m.in. musi:

być spójny logicznie i pojęciowo

być jak najprostszy i zawierać tylko te pojęcia i teorie, które są dla danej nauki rzeczywiście niezbędne

dawać możliwość tworzenia teorii szczegółowych zgodnych ze znanymi faktami.

Spis treści

1 Struktura rewolucji naukowych

1.1 Paradygmat w nauce

1.2 Paradygmat a rewolucja naukowa

1.3 Kryzysy w nauce

1.4 Krytyka falsyfikacji

1.5 Rola paradygmatu

1.6 Ewolucja idei

1.7 Definicja dziedziny nauki

1.8 Macierz dyscyplinarna

2 Bibliografia

3 Linki zewnętrzne

Struktura rewolucji naukowych

Paradygmat w nauce

Przez 13 zwięzłych, ale prowokujących do przemyśleń rozdziałów, Kuhn dowodzi, że nauka nie jest jednostajnym, kumulatywnym pozyskiwaniem wiedzy. Zamiast tego nauka jest serią spokojnych okresów przerywanych przez gwałtowne intelektualne rewolucje, po których jeden koncepcyjny światopogląd jest zamieniany przez inny. Kuhn spopularyzował w tym kontekście termin paradygmat opisywany przez niego jako w istocie zbiór poglądów podzielanych przez naukowców, zestaw porozumień o pojmowaniu zagadnień. Pomimo to krytycy zarzucali mu brak precyzji w stosowaniu tego terminu.

Zgodnie z poglądami Kuhna paradygmat jest istotny dla badań naukowych, gdyż „żadna nauka przyrodnicza nie może być wyjaśniania bez zastosowania splecionych teoretycznych i metodologicznych poglądów pozwalających na wybór, ocenę i krytykę”. Paradygmat kieruje wysiłkiem badawczym społeczności naukowych i jest tym kryterium, które najbardziej ściśle identyfikuje obszary nauk. Fundamentalnym argumentem Kuhna jest to, że dla dojrzałej nauki typową drogą rozwojową jest kolejne przechodzenie w procesie rewolucji od jednego do innego paradygmatu. Gdy ma miejsce zmiana paradygmatu, „świat naukowy zmienia się jakościowo i jest jakościowo wzbogacany przez fundamentalnie nowe zarówno fakty jak i teorie”.

Kuhn utrzymywał także, że – wbrew obiegowym opiniom – typowi naukowcy nie są obiektywnymi i niezależnymi myślicielami, a są konserwatystami, którzy godzą się z tym, czego ich nauczono i stosują tę naukę (wiedzę) do rozwiązywania problemów zgodnie z dyktatem wyuczonej przez nich teorii. Większość z nich w istocie jedynie składa układanki celując w odkrywaniu tego, co i tak już jest im znane – „Człowiek, który usiłuje rozwiązać problem zdefiniowany przez istniejącą wiedzę i technikę nie ma szerszych horyzontów. Wie on co chce osiągnąć, i w zgodzie z tym projektuje swoje narzędzia i kieruje swoimi myślami”.

W naukach społecznych, gdzie mogą jednocześnie występować różne paradygmaty, dochodzi do wojen paradygmatycznych, czyli zwalczania się nawzajem uczonych z różnych obozów i odmawiania innym charakteru naukowości. Paradygmaty w socjologii i antropologii są bardzo podzielone i na całym świecie zaobserwować można spór pomiędzy ich przedstawicielami.

Paradygmat a rewolucja naukowa

W czasach nauki instytucjonalnej (określenie również wprowadzone przez Kuhna) podstawowym zadaniem naukowców jest doprowadzenie uznanej teorii i faktów do najściślejszej zgodności. W konsekwencji naukowcy mają tendencję do ignorowania odkryć badawczych, które mogą zagrażać istniejącemu paradygmatowi i spowodować rozwój nowego, konkurencyjnego paradygmatu.

Na przykład Ptolemeusz spopularyzował pogląd, że Słońce obiega Ziemię, i to przekonanie było bronione przez stulecia nawet w obliczu obalających go dowodów. Jak zaobserwował Kuhn, w trakcie rozwoju nauki „nowości wprowadzane są z trudem i z towarzyszącym mu, zgodnym z oczekiwaniami, jawnym oporem”. I tylko młodzi uczeni, nie tak głęboko indoktrynowani przez uznane teorie – jak Newton, Lavoisier lub Einstein – mogą dokonać odrzucenia starego paradygmatu.

Takie rewolucje naukowe następują tylko po długich okresach nauki instytucjonalnej, tradycyjnie ograniczonej ramami, w których musiała się ona (nauka) znajdować i zajmować się badaniami, zanim mogła te ramy zniszczyć”. Zresztą kryzys zawsze niejawnie tai się w badaniach, ponieważ każdy problem, który nauka instytucjonalna postrzega jako łamigłówkę, może być ujrzany z innej perspektywy, jako sprzeczność (wyłom), a zatem źródło kryzysu – jest to „istotne obciążenie” badań naukowych.

Kryzysy w nauce

Kryzysy są wyzwalane, gdy uczeni uznają odkryte sprzeczności za anomalię w dopasowaniu istniejącej teorii z naturą. Wszystkie kryzysy są rozwiązywane na trzy sposoby:

Nauka instytucjonalna może udowodnić zdolność do objęcia kryzysowego problemu, i w tym przypadku wszystko wraca do „normalności”.

Alternatywnie, problem pozostaje, jest zaetykietowany, natomiast postrzega się go jako wynik niemożności użycia niezbędnych przyrządów do rozwiązania go, więc uczeni pozostawiają go przyszłym pokoleniom z ich bardziej rozwiniętymi (zaawansowanymi) przyborami.

W niewielu przypadkach pojawia się nowy kandydat na paradygmat, i wynika bitwa o jego uznanie będąca w istocie wojną paradygmatów.

Kuhn argumentuje, że rewolucje naukowe są nieskumulowanym epizodem rozwojowym, podczas którego starszy paradygmat jest zamieniany w całości lub po części przez niezgodny z nim paradygmat nowszy. Ale nowy paradygmat nie może być zbudowany na poprzedzającym go, a raczej może go tylko zamienić, gdyż „instytucjonalna tradycja naukowa wyłaniająca się z rewolucji naukowej jest nie tylko niezgodna, ale też nieuzgadnialna z tą, która pojawiła się przed nią”. Rewolucja kończy się całkowitym zwycięstwem jednego z dwóch przeciwnych obozów.

Krytyka falsyfikacji

Kuhn nie podzielał poglądu Karla Poppera o sprawdzaniu teorii poprzez falsyfikowanie. Uważał, że niekompletność i niedoskonałość w dopasowaniu danych i teorii określających układankę charakteryzują naukę instytucjonalną.

Jeśli, jak sugeruje Popper, niepowodzenie dopasowania stanowi podstawę do odrzucenia teorii, to wszystkie teorie będą stale odrzucane. Zatem czy i jak w obliczu takich argumentów nauka może się rozwijać, i co jest istotą jej rozwoju?

Rola paradygmatu

Kuhn udowadnia, że normalna nauka rozwija się, ponieważ dojrzałe społeczności naukowe pracują na gruncie pojedynczego paradygmatu lub zestawu ściśle powiązanych ze sobą paradygmatów, i ponieważ różne społeczności naukowe rzadko kiedy badają te same problemy. Rezultat udanej twórczej pracy rozwiązującej problemy wywołane przez paradygmat stanowi postęp.

W istocie tylko w czasach normalnej nauki postęp wydaje się być zarówno oczywisty jak i pewny. Co więcej, „człowiek, który upiera się, że filozofia nie dokonała żadnego postępu podkreśla tylko to, że ciągle są arystotelicy, a nie to, że rozwój filozofii arystotelejskiej zakończył się niepowodzeniem”.

Ewolucja idei

W myśl koncepcji Kuhna proces rozwoju nauki stanowi ewolucję od prymitywnych początków przez następujące kolejne stadia charakteryzujące się wzrastająca szczegółowością i coraz bardziej wyrafinowanym zrozumieniem przyrody.

W konsekwencji porównywał on własną koncepcję ewolucji idei naukowych do darwinowskiej koncepcji ewolucji organizmów żywych, ale dowodził, że nie jest to proces ewolucji w odniesieniu do czegokolwiek, i pyta, czy rzeczywiście pomaga to wyobrazić sobie, że istnieje jedyny, pełny, obiektywny, prawdziwy obraz przyrody. I chociaż postęp naukowy prowadzi do odkryć fundamentalnych prawd, Kuhn zaobserwował, że „jawnie lub skrycie rezygnujemy z poglądu, iż zmiany paradygmatów prowadzą naukowców i ich uczniów bliżej i coraz bliżej do prawdy”.

Definicja dziedziny nauki

Argument Kuhna, że społeczność naukowa określa się przez swoja wierność pojedynczemu paradygmatowi miał szczególny oddźwięk w dziedzinie wieloparadygmatycznych (lub przedparadygmatycznych) nauk społecznych, gdyż członkowie tych społeczności są często oskarżani o zazdrość wobec paradygmatycznej fizyki.

Kuhn sugerował, że na pytanie o to, czy dana dyscyplina jest czy też nie jest nauką, może być dana odpowiedź tylko wtedy, gdy członkowie społeczności naukowej powątpiewający o swoim statusie osiągną konsens co do oceny swoich przeszłych i obecnych osiągnięć.

Macierz dyscyplinarna

Macierz dyscyplinarna [disciplinary matrix], to najbardziej spójna i najgłębiej internalizowana przez grupę uczonych część paradygmatu. Składa się z podzielanych przez tą grupę: (1) generalizacji symbolicznych, (2) metafizycznej składowej paradygmatu, (3) wartości, (4) wzorców rozwiązywania problemów naukowych.

Bibliografia

The Copernican Revolution (1957)

The Structure of Scientific Revolutions, University of Chicago Press, Chicago 1962 (ISBN 0-226-45808-I3)

Struktura rewolucji naukowych, PWN, Warszawa 1963

The Essential Tension: Selected Studies in Scientific Tradition and Change, 1977

Black-Body Theory and the Quantum Discontinuity, 1894–1912, Chicago 1987

The Road Since Structure: Philosophical Essays, 1970–1993, 2000

Jak wytłumaczyć Paulinie co to jest paradygmat, PWN, 2008

Linki zewnętrzne

The Structure of Scientific Revolutions – zarys i przewodnik (ang.)

Paradygmaty inżynierii socjo-kognitywistycznej (Adam Maria Gadomski,2001–4) (ang.)

Źródło „https://pl.wikipedia.org/wiki/Paradygmat”

1. Nauki o człowieku

Nauka o człowieku – antropologia. Zajmuje się badaniem człowieka jako jednostki i jako społeczności. W znaczeniu obszerniejszym wykorzystuje wiele nauk zajmujących się w mniejszym lub większym stopniu człowiekiem i jego życiem (medycyna, psychologia, socjologia), jednakże uwzględnia je o tyle, o ile ich zdobycze mają znaczenie dla zrozumienia właściwości i rozwoju człowieka. Antropologia w ściślejszym tego słowa znaczeniu jest gałęzią nauk przyrodniczych zajmującą się człowiekiem i rasami etnograficznymi, a jej gałąź, paleoantropologia, zajmuje się także różnymi kopalnymi formami należącymi do rodzaju Homo (ewentualnie do rodzajów pokrewnych).

Narzędzia antropologii: antropometria, genetyka, statystyka i in.

Najważniejsze dziedziny antropologii: antropologia fizyczna (biologia porównawcza człowieka wraz z paleoantropologią), antropologia kulturowa (społeczna), antropologia filozoficzna. Do antropologii włącza się czasem archeologię, lingwistykę, etnologię (czasem utożsamianą z antropologią kulturową), etnografię i inne.

Antropologia kulturowa – bada człowieka jako istotę społeczną, zajmuje się kulturą materialną i niematerialną we wszystkich jej przejawach, jej organizacją, rządzącymi nią prawami, jej zmiennością historyczną i etniczną różnorodnością kultur w celu skonstruowania ogólnej teorii kultury. Akcentuje w badaniach różnorodność kultur i bada odniesienie zachowań ludzkich do struktur społecznych i ogólnego kształtu kultury danej społeczności. Sięga korzeniami epoki wielkich odkryć geograficznych, ale zaczęła się rozwijać pod koniec wieku XIX. Interesują ją też relacje między społecznościami pierwotnymi a rozwiniętymi.

Społeczności pierwotne (które nie miały wcześniej styczności z rozwiniętymi) odkrywano na Nowej Gwinei jeszcze w latach 30. XX wieku; dziś za najbardziej hermetyczne uważa się niektóre społeczności rdzennych mieszkańców Andamanów (wyspy na Oceanie Indyjskim).

Istnieją trzy tradycje w obrębie antropologii kulturowej:

1. Europejska (głównie antropologia francuska i niemiecka), zgodnie z którą w skład antropologii kulturowej wchodzą etnologia i etnografia.

2. Anglosaska (brytyjska), włączająca także językoznawstwo.

3. Amerykańska, włączająca archeologię, antropologię fizyczną, etnologię, etnografię, językoznawstwo.

Terminy „etnologia”, „etnografia” i „antropologia kulturowa” bywają stosowane wymiennie, jednak na ogół przyjmuje się, że etnografia to czysty opis konkretnej kultury, etnologia – ogólniejszy opis wraz z wnioskami, a antropologia kulturowa to nauka zajmująca się ogólnymi teoriami dotyczącymi kultury.

2. Definicja kultury

Kultura – termin wieloznaczny, najczęściej rozumiany w naukach społecznych jako całokształt duchowego i materialnego dorobku społeczeństwa, to znaczy jako ogół wytworów ludzi, zarówno materialnych, jak i niematerialnych: duchowych, symbolicznych (takich jak wzory myślenia i zachowania). Pojęcie to obejmuje więc wszystko to, co nie powstało w sposób naturalny. Istnieje też inne definicje:

„system trwałych realizacji wartości duchowych takich jak religia i sztuka”,

„system charakterystycznych dla danego społeczeństwa wzorów postępowania”,

„wszystko to, co w zachowaniu ludzkim jest wyuczone, w odróżnieniu od tego, co jest biologicznie odziedziczone”

Termin „kultura” pochodzi z łac. cultus agri – „uprawa roli”, colere – „uprawiać ziemię”, później także „dbać, pielęgnować, kształtować”. Do dziś mówi się o kulturze rolnej, o kulturach bakterii.

Znaczenie przenośne pochodzi od Cycerona, który po raz pierwszy w nowym znaczeniu użył je w dziele Disputationes Tusculanae. Mówca ten użył sformułowania cultura animi – dosłownie „uprawa umysłu” – w celu określenia swojej koncepcji filozofii. Od tamtego czasu termin „kultura” zaczęto wiązać z czynnościami ludzkimi, które miały na celu doskonalenie, pielęgnowanie czy kształcenie. Po raz pierwszy nowoczesne zastosowanie pojęcia „kultura” pojawiło się w 1688 roku, użyte przez Samuela Pufendorfa w pracy De iure naturae et gentium. Autor ten pod pojęciem cultura czy cultura animi rozumiał wszelkie wynalazki dokonane przez człowieka, takie jak instytucje społeczne, ubranie, język, moralność kierowaną przez rozum i obyczaje.

Kultura bywa utożsamiana z cywilizacją. Na ogół jednak uważa się, że są to pojęcia różne, choć pokrewne. Jako cywilizację rozumie się poziom rozwoju społeczeństwa w danym okresie historycznym, który charakteryzuje się określoną kulturą materialną, określonym stopniem opanowania środowiska naturalnego i nagromadzeniem instytucji społecznych. Stanowi ona najwyższy poziom organizacji społeczeństw, z którymi identyfikują się jednostki. Mówi się więc np. o cywilizacji Doliny Indusu, cywilizacji egipskiej, chińskiej, greckiej, rzymskiej, arabskiej, współczesnej („zachodniej”). W skład cywilizacji wchodzą mniejsze jednostki, np. narody, wspólnoty pierwotne czy inne zbiorowości. Za przejawy cywilizacji uznaje się: zorganizowane życie miejskie, monumentalne obiekty sakralne, pismo, rozwinięty handel, jakiś rodzaj organizacji zajmowanego terytorium.

Różne sposoby definiowania kultury zaprezentowali Alfred Kroeber i Clyde Kluckhohn, którzy zebrali 168 jej określeń i podzielili je na sześć typów.

1. Typ wyliczający (opisowo-wyliczający, nominalistyczny), np. definicja Tylora, mówiąca, że kultura, czyli cywilizacja, to złożona całość, która obejmuje wiedzę, wierzenia, sztukę, moralność, prawa, obyczaje oraz inne zdolności i nawyki nabyte przez ludzi jako członków społeczeństwa. Według wybitnego polskiego antropologa Bronisława Malinowskiego kultura jest integralną całością składającą się z narzędzi i dóbr konsumpcyjnych, twórczych zasad różnych grup społecznych, ludzkich idei i umiejętności, wierzeń i obyczajów.

2. Typ historyczny. Definicje tego typu kładą nacisk na czynnik tradycji jako mechanizmu przekazywania dziedzictwa kulturowego. Według Stefana Czarnowskiego kultura jest dobrem zbiorowym i zbiorowym dorobkiem, owocem twórczego i przetwórczego wysiłku niezliczonych pokoleń. Jest nią całokształt zobiektywizowanych elementów dorobku społecznego, wspólnych szeregowi grup i z racji swej obiektywności ustalonych i zdolnych rozszerzać się przestrzennie.

3. Typ normatywny. Definicje normatywne akcentują podporządkowanie się zachowań ludzkich normom, wzorom, wartościom i modelom. Alfred Kroeber i Talcott Parsons uważali, że kultura to przekazane i wytworzone treści i wzory wartości, idei i innych symbolicznie znaczących systemów, będące czynnikami kształtującymi ludzkie zachowania oraz wytwory stanowiące produkt zachowania.

4. Typ psychologiczny. Definicje psychologiczne skupiają uwagę na psychicznych mechanizmach kształtowania się kultury. Analizują one mechanizmy uczenia się, formowania nawyków kulturowych, internalizacji norm obowiązujących w danej zbiorowości i wartości uznawanych przez tą zbiorowość, jak również wpływ kultury na kształtowanie osobowości jednostek. Główny nacisk położony jest na uczenie się i naśladownictwo jako procesy przyswajania kultury. Według Stanisława Ossowskiego kultura jest pewnym zespołem dyspozycji psychicznych przekazywanych w łonie danej zbiorowości przez kontakt społeczny i uzależniony od całego systemu stosunków międzyludzkich.

5. Typ strukturalny. Definicje tu zebrane interesują się głównie strukturą konkretnej kultury, a więc jej zasadniczymi elementami oraz ich wewnętrznymi powiązaniami. Wyróżnia się cztery kategorie elementów kultury: materialno-techniczne, społeczne, ideologiczne, psychiczne (dotyczące uczuć i postaw).

6. Typ genetyczny. Definicje tego typu skupiają uwagę na problemie genezy kultury. Istnieją tu dwa podtypy. Definicje pierwszego z nich próbują wyjaśnić pochodzenie kultury poprzez wewnętrzny rozwój, wyłanianie się jednych (wyższych) jej form z form innych wcześniejszych (uważanych za niższe). Drugi podtyp dotyczy problemu wyłaniania się kultury z natury oraz związkami, różnicami i przeciwieństwami między kulturą a naturą.

Istnieją różne sposoby rozumienia kultury. Wyróżnia się przede wszystkim rozumienie atrybutywne i dystrybutywne. Według atrybutywnego rozumienia kultury jest ona cechą stałą i atrybutem ludzkości jako całości (ujęcie globalne) lub poszczególnego człowieka jako przedstawiciela gatunku Homo sapiens (ujęcie jednostkowe). Można więc mówić o kulturze tylko w liczbie pojedynczej, nigdy w liczbie mnogiej (o kulturach). Według dystrybutywnego rozumienia kultury jest ona rozumiana jako zbiór cech kultury określonej zbiorowości, np.: Polaków, rowerzystów, uczniów gimnazjum czy górników. W tym wypadku można używać liczby mnogiej, gdyż kultur w takim rozumieniu ich wiele, podobnie jak wiele jest różnych zbiorowości.

Kolejny podział każe rozróżnić definicje wartościujące i niewartościujące. Rozumienie wartościujące odwołuje się do kultur lepszych i gorszych, wyższych i niższych, bardziej lub mniej cywilizowanych. Związany z nim jest przymiotnik „kulturalny”.

Rozumienie niewartościujące nie używa wymienionych pojęć. Związany jest z nim przymiotnik „kulturowy”. Np. zachowanie młodych grafficiarzy, malujących na murach czy wagonach kolejowych, trudno nazwać zachowaniem kulturalnym (często określa się je jako akt wandalizmu), lecz na pewno jest ono zjawiskiem kulturowym.

3. Geneza kultury

Geneza kultury jest ściśle związana z procesem antropogenezy czyli rozwoju ewolucyjnego człowieka. Jeszcze ćwierć wieku uważano, że człowieka łączy stosunkowo odległe pokrewieństwo ze światem ssaków naczelnych (małp). Wspólnych przodków linii hominidów i małp człekokształtnych szukano wiele milionów lat temu. Za pierwszą formę kopalną bezpośrednio spokrewnioną z człowiekiem uważano ramapiteka (Ramapithecus) żyjącego ok. 14 mln lat temu w miocenie, z uwagi na ludzki kształt łuku szczęki. Dziś pogląd taki uważa się za całkowicie przestarzały, formy opisane jako Ramapithecus łączy się z rodzajem Sivapithecus i upatruje w nich bezpośrednich przodków orangutana (informacja ta jest już zawarta we wszystkich nowszych encyklopediach).

Badania genetyczne (potwierdzone najnowszymi odkryciami paleontologów) dowiodły w sposób niezbity, że pokrewieństwo łączące człowieka i szympansa jest znacznie bliższe niż kiedyś zakładano, i że jest ono większe niż np. między szympansem a gorylem. Oba rodzaje (Pan i Homo) rozdzieliły się przed ok. 6–7 milionami lat, i ten moment można obecnie uznać za początek samodzielnej ewolucji człowieka i jednocześnie za początkowy etap genezy ludzkiej kultury. Z okresu tego pochodzą znaleziska istot takich jak Sahelanthropus i Orrorin, odkryte na przełomie XX i XXI wieku. Nieco później (4,4 mln lat temu) żył Ardipithecus.

Około 4 miliony lat temu w Afryce rozwinął się rodzaj Australopithecus, obejmujący kilka gatunków istot dwunożnych (Australopithecus africanus, A. afarensis, A. robustus i in.), poruszających się w postawie wyprostowanej, żyjących na sawannach, ale jeszcze niewytwarzających narzędzi na większą skalę. Niedawno odkryto inny gatunek człowiekowatych, Kenyanthropus platyops (człowiek z płaską twarzą) sprzed 3,5 mln lat, który ma jeszcze typową dla australopiteków niewielką mózgoczaszkę, ale budową twarzy i uzębienia nawiązuje już do najwcześniejszych przedstawicieli rodzaju Homo.

Pierwsze kamienne narzędzia (pięściaki i in., uzyskiwane metodą obtłukiwania kamienia o kamień) przypisywane są pierwszemu gatunkowi z rodzaju Homo – Homo habilis, człowiek zręczny. H. habilis żył w Tanzanii 2,5–1,5 mln lat temu. Większość specjalistów uważa, że gatunek ten przeprowadzał planowe polowania na zwierzęta, którymi się odżywiał. Nieco młodszy był zbliżony Homo rudolfensis.

Homo erectus, człowiek wyprostowany, to zbiorcza nazwa różnych form pośrednich między Homo habilis a człowiekiem współczesnym. Opuściły one kontynent afrykański i skolonizowały większość kontynentów z wyjątkiem obu Ameryk. Obok afrykańskiego Homo ergaster sprzed 1,9 ml lat zalicza się tu także właściwego Homo erectus odkrytego na Jawie (dawniej „pitekantrop” – małpolud) i w Chinach („sinantrop”), Homo antecesor z Hiszpanii (800 tys. lat temu), Homo georgicus z Gruzji. Formy te dysponowały już umiejętnością korzystania z ognia, a także zapewne pewnymi formami kultury duchowej (pochówki rytualne). Ostatni przedstawiciele tego kręgu form żyli jeszcze kilkanaście tysięcy lat temu w Indonezji na wyspie Flores (niskorosły Homo floresiensis, zwany „hobbitem” i odkryty parę lat temu).

Z kręgu Homo erectus wywodzą się Homo heidelbergensis, który żył w Europie 300 tysięcy lat temu, Homo neanderthalensis (neandertalczyk, obecnie wykluczany z gatunku Homo sapiens z uwagi na spore rozbieżności genetyczne), zamieszkujący nasz kontynent jeszcze 30 tysięcy lat temu, i wreszcie nasz gatunek Homo sapiens, który rozwinął się w Afryce ok. 150–200 tys. lat temu, a około 80 tys. lat temu rozpoczął rozprzestrzeniać się po wszystkich kontynentach. 40–30 tys. lat temu dotarł do Europy (w czasie panujących tu okresowych zlodowaceń); formy z tamtego okresu określane są mianem kromaniończyka (człowieka z Cro-Magnon) od miejsca jednego z pierwszych znalezisk.

Kultury pierwszych Homo sapiens, podobnie jak kultury neandertalczyków i innych późnych hominidów, określa się jako zbieracko-łowieckie. Ludzie w owym czasie mieli na ogół stałe miejsca zamieszkania (szałasy, jaskinie). Źródłem pokarmu było mięso upolowanych zwierząt (także zdobyte w wyniku polowań zorganizowanych na duże zwierzęta tamtych czasów, np. mamuty), a także jaja ptaków, jagody, korzonki i inne jadalne części roślin, larwy owadów itd., znajdowane czasie wypraw zbierackich niedaleko od domostwa. Narzędzie wówczas używane uzyskiwano wciąż przez obtłukiwanie kamienia; ze względu na to ówczesny okres określa się terminem paleolit – starsza epoka kamienna, epoka kamienia łupanego. Większość specjalistów uważa, że dopiero Homo sapiens zapoczątkował bardziej zaawansowane formy sztuki, np. malarstwo jaskiniowe, rzeźbienie w kamieniu (np. Posążków kobiet, prawdopodobnie o funkcji religijnej).

W kolejnym okresie (ok. 11–7 tys. lat p.n.e., niekiedy dłużej) określanym jako mezolit – środkowa epoka kamienna – narzędzia kamienne zaczęto wytwarzać z większą precyzją, a ważnym źródłem pożywienia stały się ryby i inne organizmy wodne (małże, ślimaki).

Koło 9 tys. lat p.n.e. rozpoczęła się na Bliskim Wschodzie rewolucja neolityczna. Neolit (epoka kamienia gładzonego) to okres, gdy wciąż używano narzędzi kamiennych, ale nadawano im ostateczny kształt w wyniku wygładzania (np. mokrym piaskiem), wiercono także w nich otwory. Cechą ściśle związaną z narzędziami z gładzonego kamienia są początki uprawy roli (rolnictwa) i hodowli bydła, a także tkactwo i handel (wymiana surowców i produktów). W wielu kulturach neolitycznych kamień nie jest już jedynym powszechnie stosowanym surowcem. Zwykle następuje bowiem rozwój ceramiki – sztuki tworzenia naczyń z wypalanej gliny (ceramikę w Japonii znano już w mezolicie, z kolei w Europie i na Bliskim Wschodzie występował neolit przedceramiczny, gdy ceramiki jeszcze nie znano).

Istota rewolucji neolitycznej polega na tym, że po raz pierwszy gospodarka ma charakter wytwórczy – człowiek nie tylko zbiera to, co daje natura, ale poprzez rolnictwo i hodowlę sam zaczyna wytwarzać to, co jest mu potrzebne do przetrwania. Powoduje to, że staje się bardziej niezależny (np. od pojawiających się okresowo stad zwierząt), że przestaje mu grozić głód w trudnych okresach. Dzięki obfitości pokarmu pojawiają się większe i bardziej złożone społeczeństwa, pierwsze miasta, ośrodki kultu religijnego (zwykle słońca lub matki ziemi), budowle monumentalne (posągi, budynki wielkich rozmiarów, kopce ziemne, kręgi kamienne, piramidy – większość związana prawdopodobnie z funkcjami religijnymi).

Neolit pojawił się w różnych rejonach świata w różnym czasie. Najwcześniej rozpoczął się w obszarach tzw. Żyznego Półksiężyca (Izrael, Syria, Mezopotamia) na początku IX tysiąclecia p.n.e., później przedostał się do Turcji, Iraku i Iranu, 7500 lat p.n.e. był już w Chinach, 7 tys. lat p.n.e. w Pakistanie i Europie południowo-wschodniej, 6200 lat p.n.e. w Dolinie Gangesu, 5500 lat p.n.e. w Europie Środkowej, 4500 lat p.n.e. w Europie Północnej. W Ameryce Środkowej rolnictwo i osiadły tryb życia rozpoczął się 4500 lat p.n.e.

W czasach nowożytnych istniały i istnieją kultury wciąż używające głównie narzędzi kamiennych – Irokezi, Pueblo, Majowie, Maorysi, autochtoni na Nowej Gwinei, Pigmeje itd.

Neolit wydal pierwsze wielkie cywilizacje:

• Mezopotamia (Sumerowie, Akadowie, Babilończycy, Asyryjczycy) i tereny sąsiednie (Anatolia – Hetyci, północna Mezopotamia – Huryci, Wyżyna Irańska – Elamici),

• Egipt,

• Chiny,

• Indie i Indochiny (m.in. cywilizacja Doliny Indusu),

• Mezoameryka (Meksyk, Gwatemala: Olmekowie, Zapotekowie, Toltekowie, Majowie, Aztekowie),

• Ameryka Południowa (Inkowie; cywilizacja istniała do czasów nowożytnych).

Pierwsze wielkie cywilizacje związane były m.in. z wynalazkiem pisma, umożliwiającego przekazywanie osiągnięć kulturowych kolejnym pokoleniom.

4. Człowiek jako istota kulturowa

Arnold Gehlen uważał, że człowiek jest naznaczony niedostatkiem w porównaniu ze zwierzętami: brak mu kłów, pazurów, dzieci rodzą się zupełnie bezbronne, są całkowicie zależne od rodziców. Zwierzęta są lepiej wyposażone, mają silniejsze instynkty. Dlatego człowiek jest skazany na tworzenie kultury. Dzięki kulturze człowiek może używać ognia, łączyć ze sobą materiały, wytwarzać i używać narzędzia. Tworzy sztuczny świat, w którym może przetrwać. Strategia człowieka polega więc na dostosowywaniu środowiska do swoich ułomności. Biologiczną słabość można jednak zamienić w siłę: dzięki kulturze człowiek jest w stanie opanować różne niegościnne środowiska (np. arktyczne, pustynne). Instynkty, których się pozbył, zastąpił regułami życia społecznego, których naruszenie będzie karane. Gehlen jest konserwatystą – uważa, że życie społeczne reguluje się samo, a poza tym każdy może robić, co chce.

Zygmunt Freud stworzył koncepcję funkcjonowania umysłu ludzkiego, która odrzucała racjonalność ludzkich wyborów i zachowań na rzecz czynników irracjonalnych i emocjonalnych. Według niego (zgodnie z koncepcją Nietschego) psychika ludzka składa się z id, ego i superego. Dynamikę osobowości w ludzkiej określają wg Freuda wzajemne zależności między tymi poziomami. Id stanowi system pierwotny, który wynika z dziedziczenia. Jest sferą w człowieku, którą kieruje zasada przyjemności, które dąży do uzyskania przyjemności (m.in. uczucia sytości, przyjemności seksualnej i in.). Na gruncie id człowiek tworzy wyobrażenia, fantazje.

Kolejny element psychiki człowieka to ego, które stanowi niejako organ wykonawczy dla id. Tak jak id związane jest z płaszczyzną nierealności, tak ego kieruje się zasadą rozdzielania tego, co istnieje w świecie marzeń od świata realnego. Ego kieruje działaniem ludzkim w realnym świecie, całą jednak energię czerpie z id.

Ostatnim elementem psychiki według teorii Freuda, jest superego będące instancją obserwującą całość psychiki. Jest to część w pełni świadoma, posługująca się zasadami etycznymi, będąca zinternalizowaniem zasad życia społecznego.

Pomiędzy powyżej opisanymi częściami psychiki zachodzi nieustanny konflikt, bowiem dążenia każdej z nich są skrajnie różne od siebie. Postępowanie według każdej ze skrajności jest fatalne: jednostka folgująca nadmiernie swoim potrzebom skazana jest na potępienie społeczne (ostracyzm).

Energia może zostać przekierowana. Działalność kulturalna (czy w ogóle twórcza) jest zastępczą formą zaspokajania pragnień i rozładowania energii. Funkcjonowanie człowieka w kulturze zapewnia mu poczucie bezpieczeństwa pomimo wielu zakazów.

E. Cassirer reprezentuje antynaturalizm. Uważa, że tym, co nas różni od zwierząt jest posługiwanie się symbolami i ich rozumienie: człowiek żyjąc w świecie fizycznym tworzy rzeczywistość symboliczną (reprezentowaną przez kulturę), a reakcja człowieka na bodźce jest wydłużona – przetwarzamy je poprzez symbole kulturowe. Tak naprawdę więc człowiek nie żyje w świecie prawdziwym, ale w świecie symboli, na który składa się mitologia, religia, język, nauka, symbolika kultury.

5. Ewolucjonistyczna koncepcja kultury

Antropologia interesuje się głównie społeczeństwami pierwotnymi, prostymi, ponieważ to one dostarczają najlepszej wiedzy do poznania zróżnicowania kulturowego, gdyż są małe i odizolowane od kultury europejskiej. Kultura to swoisty atrybut ludzkości, tylko ona wyodrębnia gatunek ludzki ze świata zewnętrznego, poza tym niczym się nie różnimy. Człowiek wytworzył sobie kulturę, aby zapewnić sobie odrębność środowiska. Początkowo antropolodzy byli zdumieni wielością kultur i opisywano ich życie w najprostszy sposób. Potem zaczęto interesować się subiektywnym aspektem zjawisk kulturowych, tzn. interpretacje własnej kultury przez ich uczestników. Interesowano się rozwojem całej kultury lub dziedzinami, działami (badano religię, magię, wiedzę, rodzinę, kulturę materialną, gospodarkę, sztukę). Na gruncie ewolucjonizmu po raz pierwszy pojawiły się pewne terminy, pojęcia (obowiązujące do dziś lub pospolite w języku potocznym, np. „dzicy”, „barbarzyńcy”). Ewolucjonizm to pierwsze opisy kultur egzotycznych, które pojawiły się w nauce. Wiele koncepcji ewolucjonizmu wzbudziło opozycje.

Zadaniem antropologii była rekonstrukcja rozwoju ludzkości. Taki obraz antropologii ukształtowali jej pierwsi twórcy reprezentujący pierwszy system teoretyczny na gruncie antropologii – ewolucjonizm. Koncepcja ewolucyjna zrodziła się na gruncie fascynacji teorią ewolucji. Prawa ewolucji kultury odpowiadają w niej ogólnym prawom ewolucji.

Zauważono, że jedne kultury rozwijają się wolniej, inne szybciej. Przyczyny rozwoju zaczęto upatrywać w twórczej naturze ludzkiej, a różnic tempa doszukiwano się w zróżnicowanych warunkach środowiska.

Tezy ewolucjonizmu: człowiek wykazuje zawsze te same cechy psychiczne, niezależnie od rasy, epoki historycznej czy środowiska, a doświadczenie ludzkie postępuje tymi samymi drogami. (zasada o jedności rozumu ludzkiego). Wszyscy jesteśmy tacy sami i mamy takie same możliwości rozwoju, ale na innym etapie historycznych. Kultury rozwijają się tak samo (kultury pierwotne – świadectwo rozwoju kultury europejskiej), tylko w innym tempie. Motorem rozwoju ludzkości jest naturalna wynalazczość człowieka (różne grupy ludzkie mogą dokonać takich samych wynalazków).

Tezy rozwoju kultury:

• kultury rozwijają się poprzez następujące po sobie stadia takie same dla wszystkich społeczeństw (społeczności pierwotne osiągną w końcu etap kultur rozwiniętych),

• każda kultura istnieje dzięki swojemu rozwojowi, każdą kulturę można scharakteryzować przez jej rozwój (jeżeli chcemy oddać istotę kultury – wskazać na stadia jej rozwoju),

• rozwój każdej z kultur uwarunkowany jest jej stanem wcześniejszym (teza o genetycznych rozwoju kultury, kumulatywny charakter rozwoju),

• teza o progresywnym rozwoju – rozwój o postępach kultur przebiega od form niższych do wyższych,

• każda z kultur rozwija się równolegle do innych, niezależnie od różnic czasowych.

Podstawowe znaczenie przywiązywano do analizy przeżytków kulturalnych – takie elementy kultury jak praktyki, zwyczaje, wierzenia, które choć właściwie dla wcześniejszych etapów rozwoju przetrwały w późniejszych stadiach w formie zmodyfikowanej (relikty).

Aby ustalić, na jakim etapie rozwoju pozostaje dana kultura, zaproponowano różne kryteria oceny stopnia rozwoju danej kultury i wyróżniono różne jej fazy rozwoju. Wśród tych kryteriów znalazły się kryteria materialne: zależność fazy rozwoju od pojawienia się rozmaitych wynalazków (narzędzi), a także kryteria niematerialne: stopień komplikacji struktur społecznych, wzrost świadomości członków danego społeczeństwa.

L.H. Morgan przedstawił trzy najważniejsze czynniki rozwoju: I – umiejętność mówienia, II – umiejętność posługiwanie się narzędziami, III – powstanie i rozwój instytucji społecznych.

Wyróżnił także trzy stadia rozwoju ludzkości (stworzył periodyzację dziejów):

1. dzikość

2. barbarzyństwo

3. cywilizacja (stopień niższy, średni i wyższy).

Przykład periodyzacji wycinkowej – periodyzacja dziejów rodziny (J. Bachofen):

1. Promiskuizm (promiskuityzm, bezład seksualny: brak stałych związków, także stosunki kazirodcze),

2. matriarchat (dominująca rola kobiety),

3. Patriarchat (dominująca rola mężczyzny),

4. monogamia (utrzymywanie stałych związków małżeńskich kobiety i mężczyzny).

Morgan stworzył też periodyzację ustroju społecznego: wspólnota pierwotna, niewolnictwo, feudalizm, kapitalizm, komunizm.

J. Frezer zajmował się rozwojem kultury od magii do religii. Twierdził, że świadomość człowieka ewoluowała ze wzrostem wiedzy. Na początku człowiek wierzył, że zna magię, dzięki której potrafi wpływać na bieg wydarzeń. Z czasem okazało się, że taka wiara jest naiwna, nie sprawdza się, dlatego magia zamieniła się w religię: teraz człowiek wierzył, że bieg zdarzeń zależy od bogów, a nie od jego działań.

E.B. Tylor jest twórcą periodyzacji dziejów religii od animizmu (wiara w duchy obecne wszędzie wokół, w zwierzętach lub przedmiotach martwych), poprzez politeizm (wielobóstwo) do monoteizmu (wiary w jednego boga).

Przeżytki – formy kultury, zjawiska kulturowe pozostałe po poprzednich okresach rozwoju. Zalążki – zapowiedzi następnych etapów rozwoju.

6. Dyfuzjonistyczna teoria kultury

Dyfuzjonizm jest koncepcją młodszą i opozycyjną względem ewolucjonizmu. Jego celem jest także pytanie o przeszłość i drogi rozwoju kultur ludzkich (Ferdynand Ratzel, Leo Frobenius, Fritz Graebner, Wilhelm Schmidt, Smith, Perry), jednak dyfuzjonizm neguje tezę, że mechanizmem rozwoju człowieka jest odkrywanie wynalazków. Człowiek z natury jest mało tworczy, a o rozwoju decyduje dyfuzja – rozprzestrzenianie się elementów kulturowych, przenikanie elementów z jednej kultury do drugiej. Kultury izolowane od innych popadają w stagnację, np. Aborygeni australijscy. Kultury kontaktujące się z innymi rozwijają się natomiast szybciej.

Zawsze istniało kilka kultur zasadniczych, które rozprzestrzeniały się w całym świecie. Według Ratzela podobieństwa między elementami różnych kultur muszą być wynikiem dawnych kontaktów i migracji.

W obrębie dyfuzjonizmu istniało kilka odmian, tzw. szkół: wczesna szkoła historyczna (Graebner, Ankermann), szkoła kulturowo-historyczna niemiecko-austriacka (Schmidt, Koppers), szkoła angielska = monogenetyzm anglosaski (Smith, Perry), dyfuzjonizm amerykański.

W monogenetyzmie anglosaski E. Smitha i W. Perry’ego założono, że istniało tylko jedno wspólne praźródło wszystkich kultur. Źródła tego upatrywano w Egipcie. Elementy, które tam mają swoje źródło: wiara w życie po śmierci, silny wpływ religii na społeczeństwo (które staje się zdolne do wielkich poświęceń, np. przy budowaniu piramid, regulowaniu Nilu).

Szkoła kręgów kulturowych zakładała natomiast, że takich źródeł było kilka, i że nowe wynalazki i nowe idee rozprzestrzeniały się na podobieństwo fal na wodzie. Jedno z takich centrów miało się znajdować w Azji. Aby wskazać źródło, stosowano kryteria formy (istnienie różnych podobnych do siebie obiektów), ilości (duża ilość takich podobnych obiektów) i ciągłości. Obok kultur zasadniczych wyróżniono kultury pochodne: prymarne, sekundarne i tercjalne.

Szkoła amerykańska wychodziła z założenia, że różnorodność kultur prowadzi do relatywizmu kulturalnego: ocena i akceptacja zjawisk kulturowych zależy od tego, z jakiej kultury wywodzi się badacz. W pewnych kulturach za cnotę uważa się wyzbycie się agresji, w innych dopuszcza się agresję na otarcie łez – np. Po śmierci własnego dziecka zabicie innego dziecka.

7. Funkcjonalizm Malinowskiego

Funkcjonalizm był początkiem nowoczesnej antropologii. Powstał w latach 20-stych XX wieku. Zrodził się w Wielkiej Brytanii za sprawą B. Malinowskiego i A. Radcliffe-Browna. Początek funkcjonalizmu wiąże się z książką Malinowskiego „Argonauci zachodniego Pacyfiku”.

Podstawowe założenia funkcjonalizmu:

1. sprzeciw wobec propozycji ewolucjonistycznych jako spekulatywnych,

2. punktem wyjścia i dojścia każdego antropologa powinien być teren; podstawą pracy antropologa powinny być badania empiryczne czyli badania terenowe.

Malinowski zaproponował monografię jako najwłaściwszą metodę dla antropologii (1884–1942). 1922 r. – książka „Argonauci zachodniego Pacyfiku”, 1929 r. – „Życie seksualne dzikich w płn.-zach. Malanezji”, 1935 r. – „Ogrody koralowe i ich magia”, 1944 r. – „Szkice z teorii kultury” (podsumowanie jego teorii kultury).

A. Radcliffe-Brown (1881–1955) – prof. uniwersytetu, prezes królewskiego instytutu antropologii w Londynie. Prowadził badania na wyspach Andamańskich w pobliżu Indii.

Koncepcje Malinowskiego i Radcliffe-Browna różniły się, ale można mówić o wspólnych cechach tych teorii:

1. założenie o rozstrzygającym znaczeniu badań empirycznych dla teorii antropologicznej; badanie kultury powinno być celowe (teleologiczne), a nie przypadkowe;

2. założenie o holistycznym (wszechogarniającym, całościowym, zintegrowanym) charakterze zjawisk społecznych i kulturowych; kultura jest całością, nie ma w niej elementów zbędnych.

Według funkcjonalizmu kultura to narzędzie zaspokojenia ludzkich potrzeb: biologicznych (jedzenie, oddychanie, seks) i kulturowych.

Funkcjonalizm Malinowskiego – rozpoczął się od krytyki, polemiki z ewolucjonizmem i dyfuzjonizmem. Przyjął założenie, że kultura stanowi niepodzielną całość i należy badać empirycznie jako całość. Podstawowym zadaniem antropologii powinno być ukazanie mechanizmów rządzących współczesnymi strukturami, a nie rekonstrukcja struktur minionych (społeczeństwa pierwotne, współcześnie istniejące). Zarzucano mu ahistoryzm (nie zwraca uwagi na historię), jednak w obronie uzasadniał, że brak jest rzetelnych materiałów o minionych kulturach.

Kultura – jest integralną całością służącą zaspokojeniu ludzkich potrzeb (cała kultura ma spełniać określone funkcje). Kultura jest systemem rzeczy, działań, postaw, w którym każda część istnieje jako środek do celu. Mówi o dwóch uwarunkowaniach życia ludzkiego: biologicznych i kulturowych.

Uwarunkowanie kulturowe to narzędzie, obszar gospodarki, system ekonomiczny społeczeństwa, organizacja społeczna służąca współdziałaniu, kontrola zachowań ludzkich i związane z tym sankcje, prawa i zwyczaje, system edukacyjny (transmisja kultury), system władzy, sztuka, religia i inne.

Elementy kulturowe mogą być korzystne lub nie: korzystne (eufunkcje) są źródłem przyjemności, niekorzystne (dysfunkcje) – źródłem frustracji.

Metody badań w postaci 3 faz przyrównywano do biologii:

1. odtwarzanie szkieletu kultury tubylców czyli regularności („kości”),

2. badanie cech nieuchwytnych, niemierzalnych („mięso”, „krew”),

3. odtwarzanie ducha tubylców (reakcje emocjonalne).

W badaniach bardzo ważne jest poznanie języka tubylców i zdobycie informatorów.

8. Strukturalizm w antropologii (C. Levi-Strauss).

Prekursorem strukturalizmu był Ferdynand De Saussure, twórca semiotyki. Przedmiotem jego zainteresowania były reguły i konwencje organizujące język (language), a nie przypadku jego użycia z życiu codziennym (parole), diachroniczne i synchroniczne badanie języka, relacje syntagmatyczne i asocjacyjne (paradygmatyczne: syntagmatyczne są relacje w obrębie zdania, asocjacyjne są skojarzenia np. czerwony kolor), przedmioty oznaczające (słowo lub symbol) i oznaczane (rzecz, którą słowo lub symbol zastępuje), tworzenie się znaków z cechą, jaką jest arbitralność.

Twórcą strukturalizmu w antropologii jest Claude Levi-Strauss. Strukturalizm zakłada, że rzeczywistość jest uporządkowana i zorganizowana, inaczej „ustrukturyzowana”, i tylko przez badanie struktur można odkryć sens i funkcje elementów rzeczywistości. Struktury są zróżnicowane, ale również samowystarczalne, posiadają one następujące ogólne i konieczne cechy:

a. struktura ma potrójny charakter: całości, przekształceń i samosterowania (trwałość i niezmienność);

b. człowiek istnieje w ugrupowaniach społecznych, które są całościami; całości te ulegają przekształceniom, czyli transformacjom, a istnienie norm i sankcji społecznych to zapewnienie samoregulacji systemu społecznego;

c. kształt stosunków społecznych i kultury tj. obserwowalna rzeczywistość społeczna i kulturowa jest zewnętrznym wyrazem, znakiem nieuświadamianych przez ludzi struktur; struktury te są odnajdywane dzięki transformacyjnej analizie strukturalnej.

Przykłady struktur:

1. reguły zawierania małżeństw – krążenie kobiet i wymiana ekonomiczna,

2. mit – mit jest słowem, czyli całością znaczącą – nie jest tym, co zawiera przekaz, ale sposobem znaczenia, formą; jest wtórnym elementem semiologicznym, tworzącą znak całość.

Mit nie jest wyrazem podstawowych uczuć człowieka, nie jest przejawem archetypów, nie jest tłumaczeniem zjawisk niezrozumiałych i nie jest protohistorią – mit jak język ujmuje świat, tylko że na innym poziomie – istnieje logiczna spójność myślenia mitycznego i myślenia naukowego, a różnice dotyczą charakteru rzeczy, do których odnoszą się operacje umysłowe. Elementem konstytutywnych mitu jest mitem jak fonem, morfem czy semem. Istnieje logika myślenia nieracjonalnego i wyraża się ona w mitach – „wszystkie mity mówią to samo”; obecność mitu jest stałym atrybutem myślenia ludzkiego.

9. Kulturowe podstawy osobowości

Przedstawicielami amerykańskiej szkoły kultury i osobowości (psychokulturalizmu) są Ruth Benedict, Margaret Mead, Ralf Linton.

Franz Boas – osobowość to biologicznie, emocjonalna charakterystyka, która przesądza o sposobie w jaki jednostka reaguje wobec kultury, w której żyje.

Początki kierunku – antropologia osobowości – orientacja konfiguracjonistyczna. Kładziono nacisk na badania terenowe jako na źródło hipotez, badano socjalizację – stosunki między jednostką a systemem kulturowym (integrację systemu kulturowego i systemu osobowościowego).

R. Benedict – kultura jako konfiguracja wzorów. Założył, że osoba kształtuje się w procesie wychowawczym w konkretnym środowisku, kultura jest relatywna. Według Benedicta istnieją 2 typy kultury: apollińska (dążenie do ładu i porządku, rytualizm, łagodność, niewyróżnianie się) i dionizyjska (przekraczanie granic, ekstaza, samookaleczenie, narkotyki, gwałtowne zachowania, ekstaza, agresja, rywalizacja). Pierwszy typ opisał u Indian Zuni.

Inne tezy: kultura to rezultat wyborów spośród rozmaitych alternatyw sposobów działania w różnych sytuacjach, kultura nie jest zapleczem sposobów zachowań, lecz zintegrowaną harmonijną całością, reakcje – wzory zachowań – wykształciły się w procesie historycznym, kultura to systematyczna i zintegrowana konfiguracja, istnieje podstawowy wzór kulturowy, jednostka jest produktem kultury, rezultatem procesów socjalizacji i jej aktywnym współtwórcą – determinacja kulturowa dokonuje się w toku socjalizacji (dziecko przyporządkowuje się danej kulturze poprzez działanie rodziny, religii i prawa), w rezultacie powstaje osobowość członka społeczności, której zasadnicze zręby są identyczne u wszystkich członków, osobowość to przeniesiona na poziom indywidualny kultura, zawiera dominujący motyw, tendencja w umyśle działania, wokół przewodniego wzoru grupuje się konfiguracja wzorów będących indywidualnym sposobem reakcji na życiowe sytuacje (jeśli osobowościowe predyspozycje nie zgadzają się z dominującym wzorem, są dewiantami i zmusza się je do podporządkowania lub spycha na margines).

Według Mead – kultura to konfiguracja harmonijnie ze sobą powiązanych wzorów zachowań, jednostka jest zdeterminowana przez kulturę, jej osobowość to rezultat procesów socjalizacji w kulturze i epoce.

10. Biologiczne podstawy osobowości

Socjobiologia E. Wilsona – kultura jest zdeterminowana biologicznie. Na przykład zakaz kazirodztwa obowiązuje w każdej kulturze, bo są ku temu przesłanki biologiczne. Człowiek podporządkowuje się zakazom i nakazom, bo z natury jest konformistą. Dzięki temu może zostać ukształtowany przez społeczeństwo.

Według Wilsona socjobiologia to systematyczne badanie wszelkich form zachowań społecznych zarówno u zwierząt, jak u człowieka. Według Dobzhanskiego socjobiologia to rozciągnięcie darwinizmu na badania zachowań. Usiłuje ona pokazać, w jaki sposób grupy społeczne przystosowują się, dzięki ewolucji, do swego środowiska i jak ewolucja wycisnęła swoje piętno na zachowaniu gatunków egzystujących obecnie na Ziemi.

Przyjęcie takich założeń prowadzi do wniosku, że zachowanie ma swe genetyczne podstawy, a także, że typy zachowań ewoluowały pod wpływem środowiska, w którym żyli przodkowie człowieka i on sam.

Socjologowie zdaniem Wilsona ograniczają się oni do empirycznego opisu rodzajów zachowań. Socjobiologia natomiast ma ambicję syntezy nauk społecznych w kontekście biologicznym, którego częściami składowymi są genetyka, biologia populacji, ekologia, etologia, psychologia i antropologia.

Celem nadrzędnym każdej istoty żywej jest zapewnienie przetrwania jej indywidualnego zasobu genetycznego, a więc genów, nośników wszystkich cech istoty żywej. Życie służy więc wyłącznie przetrwaniu DNA, tego długiego, skręconego łańcucha, który znajduje się w każdym chromosomie i zawiera tysiące genów determinujących specyfikę i potencjalne możliwości każdej istoty, a więc jej zachowanie w kreślonym kontekście. Możliwe, że nie jesteśmy niczym więcej, jak tylko nosicielami DNA.

Wszystkie formy życia mają przynajmniej kilka cech wspólnych: narodziny, śmierć, reprodukcja (płciowa lub nie), przekazywanie cech dziedzicznych i wreszcie dobór naturalny, zdefiniowany przez Darwina. Teoria doboru naturalnego, długo kontrowersyjna, dziś nie jest już, przynajmniej w ogólnych zarysach, kwestionowana. Teoria ta głosi, że korzystne modyfikacje genetyczne, dokonujące się przypadkowo w kapitale genetycznym organizmu są stopniowo selekcjonowane w procesie ewolucji i stają się częścią zasobu genetycznego gatunku. Modyfikacje niekorzystne są natomiast stopniowo eliminowane. Socjobiologia Wilsona usiłuje wykazać, jak grupy społeczne przystosowują się ewolucyjnie do środowiska i w jaki sposób ewolucja wycisnęła swe piętno na zachowaniu gatunków, które przetrwały w procesie ewolucji.

Przez milion albo dwa miliony lat gatunek ludzki bardzo nieznacznie modyfikował swe warunki życia – podstawą bytu było zbieractwo i łowiectwo. Nasze wrodzone zachowania socjalne zostały ukształtowane przede wszystkim przez ten typ bytowania. Program badań socjobiologów polega na tym, by najpierw zbadać z uwagą i ostrożnością zachowania społeczne łowców-zbieraczy. Następny etap, to porównanie odruchów społecznych plemion łowców-zbieraczy z analogicznymi zachowaniami ssaków naczelnych, najbliższych ludziom jak np. wielkie małpy człekokształtne. Pozwala to oddzielić to, co w zachowaniu jest specyficznie ludzkie, od tego, co nim nie jest.

Wiele zachowań ludzkich jest właściwe także innym naczelnym. Na przykład, liczebność grupy jest różna, ale z reguły wynosi ona do 100 osobników lub mniej. Zawsze występuje jakaś forma agresywności w obronie terytorium. Dorosłe samce są agresywniejsze od samic i dominują nad nimi. Grupy są zorganizowane pod kątem biologicznej konieczności długotrwałej opieki macierzyńskiej i szczególnych stosunków łączących matkę z dzieckiem. Zabawa – obejmująca także łagodne lub pozorowane formy agresji – wydaje się podstawowym czynnikiem normalnego rozwoju dziecka.

Także w tych dziedzinach, w których społeczności ludzkie różnią się od zwierzęcych, te ich specyficznie człowiecze cechy mają charakter tak trwały i niezmienny, że nie sposób nie widzieć w nich również cech dziedzicznych. Wszystkie społeczności ludzkie rozwijają – w tej czy innej formie – prawdziwy język semantyczny; we wszystkich występuje surowe tabu dotyczące kazirodztwa; wszystkie wykazują silne predyspozycje do wierzeń religijnych; wszystkie cechuje mniej lub więcej zaakcentowany podział pracy ze względu na płeć. Ta cecha przetrwała od społeczności łowców-zbieraczy aż do najbardziej rozwiniętych społeczeństw przemysłowych, co również sugeruje jej genetyczny charakter.

Socjobiolodzy są skłonni wierzyć, a nawet twierdzić, iż skoro dobór naturalny działa poprzez jednostki, to powinien on faworyzować przede wszystkim – czy nawet wyłącznie – zachowania indywidualistyczne, absolutnie egoistyczne. Egoizm byłby wynikiem działania mechanizmów doboru naturalnego i „geny egoizmu” występują u licznych gatunków, jeśli wręcz nie u wszystkich. Potomstwo człowieka może, powodowane instynktem zachowania własnych genów, dążyć do osiągnięcia więcej niż mu się należy, kosztem innych. Ten egoizm zwiększa szanse przeżycia i na dłuższą metę przeradza się w cechę dziedziczną. Zjawisko to może w ramach rodziny doprowadzić nie tylko do konfliktu między rodzeństwem, ale również między rodzicami a dziećmi.

Dziecko dzieli średnio połowę swych genów z rodzeństwem, jest więc dwukrotnie bardziej zainteresowane w zachowaniu własnego istnienia niż braci i sióstr. Każde z rodziców natomiast zainwestowało w każde ze swych dzieci taki sam kapitał genetyczny i w jego interesie leży równy podział dbałości o całe bezpośrednie potomstwo. Dziecko skorzysta na swym egoizmie, zwłaszcza jeśli środki, jakie zapewniają rodzice (na przykład żywność) są ograniczone, rodzice natomiast będą chcieli nakłonić dzieci do zaakceptowania zasady równego podziału.

Oczywiście, rodzice – ojciec czy matka – są silniejsi fizycznie od swych małych, które nie mogą ich zmusić do dawania im więcej pokarmu, niż na nie przypada, ani też do zapewnienia im większej opieki niż rodzeństwu. W tym celu stosuje najróżniejsze podstępy: dziecko będzie się uciekać do gry płaczu i uśmiechów, stwarzając sobie cały czas skuteczny system oszustwa, który na dłuższą metę stanie się częścią kapitału genetycznego człowieka. Niektórzy socjobiologowie nie cofają się przed stwierdzeniem, że egoizm zaczyna się jeszcze przed przyjściem na świat: geny płodu wydzielają substancje sprzyjające jego rozwojowi, nawet kosztem matki. Ginekolodzy stwierdzili, że w wypadku niedożywienia matki, płód nadal czerpie wszystkie niezbędne substancje z jej organizmu, pogarszając tym stan matki.

Zachowania egoistyczne są w coraz większym stopniu temperowane przez altruizm w tej czy innej formie. Altruizm, który z samej swej natury ogranicza przystosowania jednostki, może jednak ewoluować poprzez mechanizm doboru naturalnego. Dzieje się tak dzięki pokrewieństwu, to znaczy istnieniu wspólnych genów w grupie osobników spokrewnionych ze sobą. W grupie osobników spokrewnionych altruistyczny czyn jednego z członków grupy może zwiększyć szanse przeżycia lub reprodukcji innych członków grupy. Zwiększa to przystosowanie do otoczenia całej grupy.

Socjobiologia nie wyklucza więc dziedziczenia cech altruistycznych pod warunkiem, że cechy te sprzyjają przeżyciu maksymalnej ilości genów ich nosiciela. Altruizm to – w gruncie rzeczy – jedna z form egoizmu biologicznego; ptak, który naraża własne życie, aby ocalić towarzyszy w czasie ataku jastrzębi, zapewnia w ten sposób przetrwanie dużej liczbie własnych genów znajdujących się w organizmach jego współbraci. Badania nad ssakami, których zachowania są bardziej skomplikowane, wykazały, że w pewnych wypadkach ryzyko, podejmowane przez zwierzę, jest proporcjonalne do stopnia pokrewieństwa z tymi, którym chce przez to zapewnić ocalenie.

Według teorii socjobiologicznej, rodzice są altruistami w stosunku do własnych dzieci, ponieważ każde z rodziców zainwestowało 50 procent w genach każdego z dzieci. Z tego samego powodu bracia i siostry są altruistami wobec siebie, gdyż dzielą przeciętnie 50 procent swego kapitału genetycznego. Oczywiście, jednak w tym wypadku uczucie egoizmu przeważy nad altruizmem, gdyż przede wszystkim strzegą własnego kapitału genetycznego. Niektórzy socjobiologowie są zdania, że można nawet obliczyć stopień altruizmu niezbędny do zapewnienia przetrwania własnym genom: jest on odwrotnie proporcjonalny do kwadratu stopnia pokrewieństwa osobnika, którego chce się uchronić.

Altruizm w świecie ludzi istnieje także względem osób niespokrewnionych. Dzieje się tak, bo wnioskujemy, że sami możemy znaleźć się w potrzebie. Wrodzoną predyspozycją człowieka jest natomiast agresja.

Zdaniem Wilsona nie ma powodu, żeby nie badać wszystkich zachowań ludzkich w świetle centralnej teorii socjobiologii. Badania takie powinny więc obejmować moralność, obrządki i wierzenia religijne, a nawet prawo, gdyż wszystko to jest sformalizowaniem zachowań zmierzających do zapewnienia przetrwania własnym genom.

Religie jego zdaniem głoszą wiarę w wartości pozaziemskie po to, żeby zapewnić swym adeptom zapłatę za cnoty nie na tamtym, ale na tym świecie: długie życie, obfite pożywienie, ochronę przed klęskami naturalnymi i pokonanie wrogów. Religie, podobnie jak inne instytucje ludzkie, ewoluują w kierunku zapewnienia dobrobytu swym zwolennikom. Człowiek woli wierzyć, niż wiedzieć, mieć za cel nicość, niż pogodzić się z nicością celu. I religie, za swą fasadą wiary, stawiają sobie cele socjobiologiczne. Znaczenie samca, mogącego stworzyć nieograniczoną liczbę potomstwa, znajduje odbicie we wszystkich religiach monoteistycznych, które wybrały na Boga mężczyznę, nigdy kobietę.

Religijność ma się wywodzić jeszcze od świata zwierząt, które przywódcom (osobnikom alfa) przypisują niezwykłe cechy. Daje to większą szansę przetrwania.

Jedna z najbardziej dyskusyjnych tez Wilsona głosi, że człowiek ma dziedziczną skłonność do poddawania się indoktrynacji. Istnienie i przetrwanie grupy wymaga pewnego stopnia konformizmu, inaczej grupie grozi rozpad i wygaśnięcie. Skłonność człowieka do poddawania się indoktrynacji jest więc cechą dziedziczną, wyselekcjonowaną drogą doboru naturalnego.

Człowiek ma wrodzone skłonności do wojny, ponieważ zwycięstwo zapewnia dominację własnych genów. Wilson powołuje się na studium historyczne obejmujące 11 krajów europejskich, w okresie od 275 do 1025 lat. Przeciętnie państwa te 47 proc. badanego czasu prowadziły wojny.

Niektórzy socjobiolodzy starają się wyjaśnić ksenofobię twierdząc, że strach przed obcymi jest reakcją wrodzoną. Jest to jakby etap przygotowawczy, w czasie którego dzieci w wieku od 6 do 18 miesięcy wstydzą się obcych dorosłych ludzi. W ten sam sposób, odwołując się obficie do przykładów ze świata zwierząt, wyjaśniają istnienie w ludzkich społecznościach zjawisk takich jak hierarchia czy terytorializm.

Socjobiologowie absolutnie nie negują znaczenia ewolucji kulturowej w ewolucji zachowań społecznych człowieka. Co najmniej od 100 tys. lat ewolucja kulturowa jest potężniejszym czynnikiem ewolucyjnym niż ewolucja biologiczna. Ale ta ewolucja kulturowa jest wykładnią dziedziczności człowieka. Wilson nie uważa, że geny kontrolują zachowanie człowieka w sposób bezpośredni: wywierają one raczej wpływ na rozwój kulturowy, który z kolei oddziałuje na geny na niekończącej się drabinie ewolucji. Podobną opinię wyrażał Dobzhansky, twierdzący, że geny utraciły w pewnym sensie swój prymat w ewolucji człowieka na rzecz czynnika zupełnie oryginalnego, niebiologicznego albo ponadorganicznego: kultury.

Margaret Mead wyróżniła 3 typy kultur:

• postfiguratywna – w niej nic się nie zmienia, lub bardzo niewiele, wzorce zachowań są bardzo silne, niosą je starsi członkowie,

• konfiguratywna – wzorce podlegają rewidowaniu, wzorem do naśladowania niosą dziadkowie, ale rówieśnicy,

• prefiguratywna – dorośli uczą się od dzieci.

11. Postmodernizm w antropologii kulturowej

Przedstawiciele: C. Geertz, J. Clifford, Z. Bauman.

Clifford Geertz jest jednym z najbardziej znanych współczesnych antropologów kulturowych. Koncepcja kultury, której pozostaje zwolennikiem, jest semiotyczna. Wierząc, że człowiek jest zwierzęciem zawieszonym w sieciach znaczeń, które sam utkał, pojmuje kulturę jako owe sieci, których analiza nie jest zatem nauką eksperymentalną poszukującą praw, lecz nauką interpretatywną poszukującą znaczenia.

Geertz wykorzystuje w badaniach metodę opisu gęstego. Termin opis gęsty po raz pierwszy zastosowany został przez brytyjskiego filozofa Gilberta Ryle. W celu zobrazowania znaczenia tego terminu Ryle w swoich rozważaniach przywołuje przykład dwóch chłopców, którzy gwałtownie mrugają. Pierwszy z chłopców mruga z powodu nerwowego tiku, w sposób od niego niezależny, natomiast drugi z nich mruga aby przekazać jakiś sekretny, porozumiewawczy sygnał. Filozof zauważa, że obserwator patrzący na te mrugnięcia z boku, ograniczając się jedynie do bezpośredniego opisu tego, co widzi nie zauważyłby pomiędzy tymi zjawiskami żadnej różnicy. Mimo to różnica pomiędzy nerwowym tikiem, a celowym mrugnięciem jest zasadnicza. Pierwszy chłopiec mrugając z powodu tiku nerwowego wykonuje jedną czynność – zaciska powieki. Drugi natomiast mrugając porozumiewawczo wykonuje znacznie więcej działań, gdyż podjęta przez niego czynność nie jest tylko prostym zamknięciem i otworzeniem powiek, a składa się na nią: (1) określony cel mrugającego, (2) mrugający zwraca się do konkretnego odbiorcy, (3) przekazuje określoną wiadomość, (4) używa społecznie zrozumiałego kodu, (5) działa w tajemnicy przed resztą otoczenia. Dodatkowo mrugniecie takie może nabrać innego znaczenia i składać się z innych czynności gdy jest próbą mrugnięcia porozumiewawczego, którą wspomniany chłopiec ćwiczy przed lustrem lub kpiną z czyjegoś mrugnięcia. Za każdym razem obserwowane czynności nie różnią się od siebie w sensie fizycznym, natomiast różnica znajduje się w niemożliwym do zaobserwowania gołym okiem znaczeniu jakie nadają tym czynnościom mrugający. Ryle rozróżnia na tej podstawie dwa rodzaje opisu zjawisk: opis rzadki – skupiający się na prostej rejestracji zdarzeń, nie widzący różnicy pomiędzy mrugnięciem porozumiewawczym, a nerwowym tikiem i opis gęsty, który nie ogranicza się jedynie do klasyfikacji zaobserwowanych faktów, stara się natomiast zinterpretować ich sens.

Clifford Geertz przenosi poczynione przez Ryle’a rozróżnienia na grunt antropologii. W najbardziej klarowny sposób koncepcję opisu gęstego wyraził Geertz w eseju „Opis gęsty: w poszukiwaniu interpretatywnej teorii kultury”, który opublikowany został w zbiorze jego autorstwa zatytułowanym „Interpretacja kultury”. W eseju tym stwierdza on, że antropologia powinna skupiać się na interpretowaniu sensów i znaczeń obserwowanych działań, a nie zapisywaniu zaobserwowanych faktów i poszukiwaniu obiektywnych zasad ich funkcjonowania. Kultura bowiem nie jest obiektywnym, jednorodnym mechanizmem determinujący określone działania jednostki. Opis gęsty ujmuje kulturę jako pewien kontekst w którym podejmowane działania nabierają sensu i który pod wpływem tychże działań nieustannie zmienia się w sposób, którego nie da się z góry przewidzieć. Nie mówi się tu o niezmiennych, uniwersalnych formach kultury, stwierdza się natomiast, że kultura jest dynamicznym procesem przeformułowywania i reinterpretacji, który dokonuje się po przez działania jednostek. Dlatego też opis gęsty jest perspektywą badawczą skupiająca się przede wszystkim na analizie działań podejmowanych przez aktorów społecznych i sensach jakie oni sami przypisują im w określonych okolicznościach. Uwaga antropologa koncentruje się tu na tym co dane działanie wyraża w konkretnej sytuacji, jakie sensy ze sobą niesie w konkretnym użyciu.

Opis gęsty jest więc swego rodzaju interpretacją, która nie rości sobie prawa do tworzenia stricte naukowych teorii i wyjaśnień. Jest to metoda antropologiczna świadoma ograniczeń i problemów jakie niesie ze sobą badanie obcej kultury. Antropolog, który obserwuje „mrugnięcia”, wydarzenia i działania, które podejmują przedstawiciel obcej kultury, nie ma bezpośredniego wglądu w ich sens i znaczenie, musi się natomiast ich domyślać. To przedstawiciel badanej kultury tworzy interpretacje przydarzających mu się życiowych doświadczeń i stosownie do nich reaguje, antropolog próbując wyjaśnić te reakcje konstruuje za pomocą opisu gęstego interpretacje tych interpretacji. Tak rozumiane badania przestają być zapisem naukowym, a upodobniają się do literatury, opisywania wciąż zmieniających się wrażeń jakie antropologowi nasuwają na myśl obserwowane sytuacje.

Cliford Geertz stwierdza, że opis gęsty jest świadomym tworzeniem przez antropologa pewnej fikcji. Przy czym nie chodzi tu o potoczne rozumienie fikcji, jako swoistej nieprawdy, konfabulacji. Geertz odwołuje się do łacińskiego określenia fictio, które tłumaczyć można jako „coś skonstruowanego” lub „coś ukształtowanego”. W tym sensie nie oznacza to, że relacja antropologiczna jest fałszywa lub nie poparta faktami, znaczy to jedynie, że stanowi ona pewien konstrukt wytworzony przez badacza. Antropolog badając kulturę próbuje zgłębić hierarchię znaczących struktur, wiedzę którą posługują się badani, aby nadać podejmowanym przez siebie działaniom określone sensy. Nie sposób raz na zawsze opisać charakteru, istoty danej kultury, gdyż zmienia się ona ciągle w zależności od działań jednostek i doświadczeń które przydarzają im się w życiu. Z tego powodu żadna interpretacja antropologiczna nie stanowi ostatecznie domkniętej całości, uniwersalnej i ponadczasowej prawdy na temat obcej kultury. Opis gęsty jako metoda badawcza, podobnie jak działalność literacka, jest więc świadomym wytwarzaniem przedstawienia. Antropolog tworzy literacką reprezentację obcej kultury, która w zasadniczy sposób kreuje postrzeganie tej kultury i ma służyć jej zrozumieniu, nie roszcząc sobie jednocześnie prawa do bycia opisem jedynym, niezmiennym i ostatecznym.

Opis gęsty nie jest metodą badawczą, którą można określić za pomocą skodyfikowanych sposobów postępowania i działania. Jest to metoda, która jest zależna od samych okoliczności w jakich dochodzi do badań, stąd za każdym razem przybiera ona inną formę, kształt i charakter. Tradycyjne rozróżnienie na „opis” i „wyjaśnienie”, które cechuje nauki eksperymentalne zostaje tu zastąpione przez „zapis” (opis gęsty) i „specyfikację” (diagnozę). W ten sposób antropologia przestaje być rozumiana jako nauka, badająca obiektywne prawa rządzące obserwowanymi zjawiskami i tworząca na ich podstawie ogólne teorie. Wykorzystanie w badaniach antropologicznych opisu gęstego sprawia, że stają się one dziedziną wytwarzającą interpretacje dotyczące poszczególnych przypadków. Dlatego też opis gęsty służy przede wszystkim sformułowaniu wniosków klinicznych, a nie ogólnych, diagnozując ich charakter w oparciu o bieżący kontekst, w którym się one pojawiają.

Wśród charakterystycznych cechy badań antropologicznych posługujących się opisem gęstym Clifforda Geertza wymienia:

• interpretatywny charakter,

• analiza skupiona na strumieniu dyskursu społecznego,

• opis gęsty utrwala to, co w „ulotności” dyskursu zostało powiedziane (zrobione),

• mikroskopijna skala badań.

Opis gęsty jest analizą kultury w jej „dzianiu się”, skupia się na okolicznościach i podejmowanych w ich kontekście działaniach. Tak pojmowana praktyka antropologiczna ma służyć utrwalaniu „ulotnych” zdarzeń i ich sensów, w celu wzbogacania dyskursu ogólnoludzkiego, co w konsekwencji sprzyjać będzie wytwarzaniu płaszczyzn porozumienia i komunikacji międzykulturowej. Jak stwierdza Clifford Geertz, celem antropologii powinno być zrozumienie kultury jakiegoś ludu czyli „ukazanie w pełnym świetle jego normalności bez redukowania osobliwości”, czemu służyć ma najlepiej opis gęsty.

12. Zagadnienia organizacji społecznej

Systemy pokrewieństwa

• patrylinearny: dzieci po urodzeniu włączane są automatycznie do grupy ojca,

• matrylinearny: dzieci po urodzeniu włączane są automatycznie do grupy matki,

• podwójny.

System pokrewieństwa przekłada się na dziedziczenie nazwisk rodowych, przywilejów, dziedziczenie majątku po krewnym itd.

W systemach matrylinearnych pokrewieństwo oraz wspólnych przodków ustala się idąc po linii matki (po kądzieli). W skrajnych przypadkach biologiczny ojciec dziecka nie jest nawet uznawany za krewnego swoich dzieci, a członkowie jego rodziny mogą wchodzić w związki małżeńskie z jego dziećmi. Istnieje często władza wuja nad siostrzeńcem – awunkulat.

System matrylinearny występuje średnio 3 razy rzadziej niż patrylinearny system pokrewieństwa. Przykładami społeczeństw o strukturze matrylinearnej są Trobriandczycy, Indianie Pueblo, Hopi, Irokezi lub Lhopu.

W podwójnym systemie pokrewieństwa występuje (niekoniecznie równoważnie) matrylinearna i jak patrylinearna zasada pochodzenia. W społeczeństwach opartych na tym systemie istnieją obok matrylinearne i patrylinearne grupy pochodzeniowe, do których należy się równocześnie. Najczęściej występuje on w Afryce (np. u Yakö w Nigerii) i w Polinezji.

Ilość grup wiekowych może być różna w różnych społecznościach. Przynależność do danej grupy wiąże się z określonymi przywilejami, prawami, obowiązkami, a przejście z jednej grupy do drugiej wiąże się z rytuałem inicjacji. W Kenii występują wśród osób płci męskiej 4 grupy wiekowe. Pierwsza grupa to dzieci, druga – wojownicy. Należący do niej młodzieńcy mogą już prowadzić życie płciowe. Trzecia grupa ma prawo żenić się i zakładać rodziny. Wreszcie czwarta grupa ma możliwość aktywnego uczestniczenia we władzy plemiennej.

Zwykle w społeczeństwie występuje klika poziomów integracji. Poziom pierwszy stanowi rodzina – pojęcie to może być rożnie rozumiane w różnych kulturach. Rodzina stanowi grupę produkcyjną, a często także konsumpcyjną. Może liczyć od kilku do (rzadko) kilkudziesięciu osób.

Drugi poziom stanowi grupa sąsiedzka, klan, osiedle, wioska lub horda (wędrująca i polująca razem). W obrębie tej grupy toczy się codzienne życie społeczne. Zwykle wielkość grupy sąsiedzkiej nie przekracza 30–40 osób. Trwałość grup sąsiedzkich i hord nie jest duża – jest mierzona w dziesiątkach lat, może przekraczać 100 lat.

Trzeci poziom to grupa regionalna lub fratria liczące do kilkuset osób. Zwykle obowiązuje zakaz małżeństw w obrębie fratrii (egzogamia – konieczność szukania partnera poza fratrią). Członkowie takiej grupy spotykają się w sezonie zbioru dzikich płodów, polowań. Trwałość grup regionalnych ocenia się na kilkaset lat.

Plemię stanowi czwarty stopień integracji, nie zawsze występuje. Wielkość plemienia może liczyć do kilku tysięcy osób. Plemię ma charakter endogamiczny – małżeństwa zawierane są w obrębie plemienia. Plemiona są strukturami trwałymi – mogą istnieć nawet kilka tysięcy lat.

Struktury społeczne: hierarchiczna (poszczególni członkowie mają różne prawa, obowiązki, przywileje, prestiż, zasięg władzy – różny stopień posłuchu wśród innych) i niehierarchiczna. Z pojęciem hierarchii wiążą się status, ranga, klasa, kasta. Status utożsamiany bywa z pozycją społeczną, jest terminem neutralnym. Może istnieć status zindywidualizowany (przynależny tylko konkretnej jednostce) lub uogólniony (przynależny z uwagi na spełnianą funkcję społeczną). Pojęcie klasy związane jest ze zróżnicowaniem ekonomicznym i w społeczeństwach pierwotnych rzadko występuje. Ranga jest podobna do statusu, ale powoduje niższość lub wyższość poszczególnych osób. Społeczeństwa hierarchiczne charakteryzuje zróżnicowanie rangowe.

Klan jest grupą społeczną o określonej randze, do której jednostka przynależy z urodzenia (ma pozycję przypisaną). Pozycja przypisana może być związana także z płcią, temperamentem. Pozycje społeczne mogą być też osiągane – jednostka otrzymuje je dzięki swoim zasługom. Czasem pozycja przypisana może być związana z osiąganą (jednostka musi osiągnąć wprawę w pełnieniu swojej funkcji).

Struktura zamknięta – wszelkie role społeczne są przypisane z urodzenia. Struktura otwarta – wszelkie role społeczne są osiągane. Społeczności osiadłe są zwykle bardziej zamknięte, występuje w nich więcej dóbr konsumpcyjnych i możliwości ich gromadzenia. Społeczności prymitywne mogą jednak mieć też wiele statusów przypisanych, związanych z płcią lub wiekiem, gdyż nie istnieją inne podstawy społecznego zróżnicowania.

Rytuał przejścia składa się z 3 faz: wyłączenia (ze starej grupy), zawieszenia i włączenia (do nowej grupy). Rytuał przejścia wiąże się z odrzuceniem dawnej tożsamości (np. dziecięcej) i wprowadzenie w inną (tożsamość dorosłego). Rytuałem przejścia może być np. ślub, chrzciny, śmierć, pełnoletność („osiemnastka”) itp.

13. Systemy wyobrażeń o świecie

System wyobrażeń o świecie stanowi bardzo istotną warstwę każdej kultury. Różni specjaliści wypowiadali różne opinie na temat tego, czy wszyscy ludzie myślą jednakowo. Na pewnym poziomie istnieje ogólnoludzka wspólnota myślowa, poza którą występują różnice wynikające z różnych systemów wyobrażeń o świecie występujących w różnych kulturach.

Jednym z podstawowych aspektów, wspólnych dla wszystkich kultur, jest mowa symboliczna. Uniwersalny charakter ma tendencja do porządkowania świata będąca efektem wspólnego dla wszystkich ludzi sposobu jego postrzegania, zależnego tylko od biologicznych cech człowieka (np. Postrzegania kolorów i dźwięków). Uniwersalne są też wierzenia i wyobrażenia w poszczególnych kulturach na temat sensu i przyczyn podstawowych czynności codziennych, pochodzenia świata i człowieka (w szczegółach mogą być różne), życia i śmierci. Powszechne są pojęcia piękna, brzydoty, potraw smacznych i odstręczających, ubioru przyzwoitego i nieprzyzwoitego, choć szczegóły znów są inne w każdej kulturze. Wszyscy ludzie porządkują zjawiska w czasie i przestrzeni.

Według Junga w myśleniu ludzkim istnieją archetypy – zespoły symboli i obrazów, pozwalające na łączenie w sensowne całości obserwowalnych elementów świata zewnętrznego. Malinowski podkreśla, że w każdym społeczeństwie jest też obecne trzeźwe myślenie praktyczne, kojarzące przyczyny ze skutkami w ciąg logiczny. Myślenie takie jest niezbędnym warunkiem przetrwania w trudnych czasem warunkach środowiska zewnętrznego.

Myśl ludzka jest uwarunkowana społecznie, dlatego w każdym społeczeństwie obok uniwersalnych archetypów czy trzeźwego myślenia praktycznego o charakterze specyficznym istnieją różne typy myślenia związane ściśle z daną kulturą. Dla społeczeństw pierwotnych takim specyficznym typem będzie myślenie mityczne, zwane też pierwotnym, archaicznym, religijnym lub prelogicznym. Ta forma występuje u ludzi reprezentujących światopogląd religijny w społeczeństwach wszelkiego typu, rudymentarnie występuje u wszystkich ludzi. Formą przejawiania się osobliwych cech myślenia pierwotnego jest mit.

Mity największą rolę odgrywają w społeczeństwach prymitywnych, ale występują w każdym społeczeństwie. Przeobrażenia w sposobie życia społeczności pierwotnych prowadzą do załamania się światopoglądu mitycznego, dlatego mit w kulturach zaawansowanych występuje w szczątkowej formie. Obecnie utrzymuje się głównie w izolowanych społeczeństwach wiejskich. Jego rola maleje wraz ze wzrostem znaczenia pisma, a także gdy przełamywane są bariery społeczne, rozwijają się kontakty międzyludzkie i umysłowa ruchliwość społeczeństw.

Barthes uważa mit za sposób myślenia stereotypami, będący rodzajem zbioru skojarzeń, którymi się myśli i uzasadnia to, co nieuzasadnione i niemożliwe do uzasadnienia na drodze empirycznej. Nadto mit i w ogóle myślenie pierwotne, zbiorowe, mityczne wykazuje szereg cech, takich jak:

• brak zasad logiki formalnej (takich jak zasada niesprzeczności i tożsamości; w myśleniu indywidualnym, codziennym, te zasady są zawsze przestrzegane); formułowanie sądów ogólnych nie wymaga szczegółowych obserwacji; słowo może być uważane za przyczynę, stąd magiczna siła zaklęcia; między zjawiskami niewidzialnymi mogą zachodzić widzialne związki;

• dopuszczalne są transformacje (np. przedmioty materialne mogą przechodzić w stan duchowy, życzenie utożsamia się z jego spełnieniem, treść z jej obrazem, słowo z treścią znaczącą, śmierć z narodzinami, dziecko ze starcem, jawa ze snem, przedmiot ze znakiem, związek przyczynowy z bliskością fizyczną);

• występuje symbolizm i obrazowanie, metafory i alegorie;

• czas nie ma charakteru linearnego, lecz cykliczny, zdarzenia nie są jednostkowe ani niepowtarzalne; mit dotyczy zdarzeń, nigdy procesów;

• przestrzeń ma swoistą strukturę, będącą zwykle odzwierciedleniem budowy ciała człowieka lub zwierzęcia, każdy punkt i odcinek ma określoną, niepowtarzalną wartość, obowiązuje symetria, podział na dół – górę, tył – przód, rzeczy skupiają się wokół pionowej osi, łączącej nieb, ziemię i świat podziemny;

• mit ma ogromne znaczenie w życiu człowieka pierwotnego, w przeciwieństwie do baśni, legend, anegdot, zabawnych opowieści; pozwala przetrwać trudne stany psychiczne i okresy kryzysu;

• mit jest postrzegany jako absolutnie prawdziwy i nie do podważenia przez doświadczenie;

• mit jest dosłowny w traktowaniu wszystkich szczegółów;

• występuje myślenie etnocentryczne i ksenofobia; mity nie są uniwersalne i tylko w konkretnej zbiorowości mają znaczenie sakralne, poza tym mogą być znane, lecz traktowane jako opowiastki;

• mity są mało podatne na zmiany, konserwatywne;

• myślenie pierwotne ma formę sakralną, przenika całe życie zbiorowości pierwotnych.

Treść mitów jest niezwykle zróżnicowana. Pojawiają się w nich elementy bliskie danej społeczności (np. u myśliwych – zwierzęta łowne, u rolników – rośliny uprawne).

Z myśleniem pierwotnym związane są następujące kategorie:

1. Religia – system wyobrażeń, w którym centralną rolę pełnią przedstawienia bytów i sił nadprzyrodzonych, zawierający twierdzenia absolutnie niepodważalne i pozaempiryczne. Religia przenika wszystkie sfery myślenia i działania, wkracza w struktury społeczne, poczynania gospodarcze, podział dóbr. Religiom pierwotnym nieobca jest koncepcja istot boskich, ale są one najczęściej bliskie europejskiemu pojęciu duchów. Brak jest systemu dogmatów, nie ma organizacji kościelnej. Rozróżnia się sfery sacrum i profanum. Sfera profanum obejmuje czynności rutynowe, codzienne, oczywiste, sfera sacrum kojarzy się z niezwykłością, z czymś nieznanym, dziwnym, niezwiązanym z tym światem. Religia występowała już u Homo neanderthalensis, który czynił swoim zmarłym intencjonalne pochówki. Każde działanie uważa się za nieskuteczne, jeśli nie jest ono powiązane z czynnościami religijnymi. Dla religii znamienne są postawy związane z szacunkiem, czcią i podległością, występuje błaganie i prośba, z których początek bierze modlitwa, dominuje postawa pogodzenia z losem i rezygnacji. Pojawia się ofiara, mająca na celu przebłaganie istot nadprzyrodzonych. Kontakt z istotami duchowymi ma charakter ludzki, podobny do kontaktu z innym człowiekiem.

2. Animizm – wiara w istoty duchowe, upostaciowione i odrębne, albo przenikające przedmioty materialne.

3. Mana – siła emanująca ze wszystkich przedmiotów, porównywalna z energią lub grawitacją.

4. Tabu – nieuzasadniony zakaz, którego przekroczenie kojarzy się z poczuciem grozy i przerażenia. Za przekroczenie tabu grożą sankcje nadprzyrodzone.

5. Magia – od religii różni się tym, że kontakt z siłami magicznymi nie jest osobowy. Jest sposobem osiągania pożądanych celów, radzenia sobie z problemami. Polega na manipulowaniu siłami stanowiącymi bezosobowy arsenał sił i środków, spośród których można dobrać najbardziej dogodne w danym momencie. Istnieją dwa typy magii: homeopatyczna i kontaktowa. Magia homeopatyczna opiera się na zasadzie, że podobne wywołuje podobne. U postaw magii kontaktowej leży przekonanie, że rzeczy, które raz pozostawały w kontakcie, będą zawsze mieć na siebie wpływ. W skład magii wchodzi m.in. czarownictwo i wróżbiarstwo.

6. Rytuał – czynność pośrednia, odwołująca się do sił boskich lub magicznych.

7. Szaman – osoba mająca możność bezpośredniego kontaktu z siłami nadprzyrodzonymi dzięki cechom osobistym.

8. Kapłan – osoba oddziałująca za pomocą obrzędów, a nie cech osobowych.

Rozumowanie indukcyjne

Brak wersji przejrzanej

Indukcja – typ rozumowania redukcyjnego określany jako wnioskowanie „od szczegółu do ogółu”, tj. wnioskowanie z prawdziwości racji (wniosków w szerokim znaczeniu tego słowa) o prawdziwości następstw (przesłanek w szerokim znaczeniu tego słowa), przy czym bardziej złożone niż prosta indukcja enumeracyjna niezupełna typy indukcji przy pewnych interpretacjach stanowią rozumowania dedukcyjne. W odróżnieniu od rozumowania dedukcyjnego indukcja enumeracyjna niezupełna stanowi rozumowanie zawodne, tj. takie, w którym prawdziwość przesłanek nie gwarantuje pewności wniosku. Głównymi postaciami indukcji są indukcja enumeracyjna niezupełna, indukcja enumeracyjna zupełna, indukcja eliminacyjna i indukcja statystyczna – indukcja matematyczna jest natomiast uznawana za specyficzne rozumowanie dedukcyjne.

Głównym problemem filozoficznym związanym z rozumowaniami indukcyjnymi jest to, czy stanowią one rozumowania uzasadniające: skoro konkluzja wnioskowania indukcyjnego nie jest w pełni uzasadniona przez jej przesłanki, pojawia się problem, w jaki sposób, w jakim stopniu i czy w ogóle wnioskowania indukcyjne prowadzą do prawdziwych wniosków. Ci, którzy uznają wnioskowania indukcyjne za wnioskowania uzasadniające (zwolennicy indukcjonizmu) tłumaczą zazwyczaj stopień uzasadnienia konkluzji wnioskowania indukcyjnego za pomocą pojęcia prawdopodobieństwa logicznego. Krytyka indukcjonizmu dokonana przez dedukcjonizm (antyindukcjonizm) opiera się przede wszystkim na fakcie, że nie skonstruowano dotychczas zadowalającej odpowiedzi na pytanie, jak mierzyć to prawdopodobieństwo.

Rozumowania indukcyjne bywają uważane za główne narzędzie tzw. nauk empirycznych, przeciwstawianych z tego powodu tzw. naukom dedukcyjnym (głównie matematyka i logika), posługujących się rozumowaniami dedukcyjnymi. Metoda stosowana przez nauki empiryczne, polegająca na zastosowaniu eksperymentu, obserwacji, indukcji enumeracyjnej i indukcji eliminacyjnej nosi miano metody indukcyjnej – współczesna metodologia nauk empirycznych zwraca jednak uwagę na fakt, że nauki empiryczne w szerokim stopniu używają także narzędzi dedukcyjnych, których dostarcza im matematyka. Podział metod naukowych na dedukcyjne i indukcyjne stał się podstawą do wyróżnienia logiki indukcji jako samodzielnej dyscypliny badań logicznych.

Spis treści

1 Główne typy rozumowań indukcyjnych

1.1 Indukcja niezupełna

1.2 Indukcja zupełna

1.3 Indukcja eliminacyjna

1.3.1 Indukcja eliminacyjna Francisa Bacona

1.3.2 Indukcja eliminacyjna Johna Stuarta Milla

2 Z dziejów problematyki indukcji

3 Współczesne ujęcia problemu indukcji

4 Wybrane tezy logiki indukcji

5 Zobacz też

6 Linki zewnętrzne

Główne typy rozumowań indukcyjnych

Indukcja niezupełna

Najprostszym typem wnioskowania indukcyjnego jest indukcja niezupełna (indukcja enumeracyjna niezupełna), polegająca na uznaniu jakiejś ogólnej prawidłowości na podstawie skończonej liczby zdań stwierdzających niektóre wystąpienia tej prawidłowości. Jest to jedno z podstawowych narzędzi nauk doświadczalnych, jej stosowanie wymaga jednak odpowiedniej metodologii (por. rachunek błędów w naukach doświadczalnych).

Indukcja enumeracyjna niezupełna jest wnioskowaniem w najprostszej postaci (stosującym się do sytuacji, gdy przesłanki i wniosek to zdania kategoryczne podmiotowo-orzecznikowe, nie np. okresy warunkowe) przebiegającym według schematu:

Indukcja enumeracyjna niezupełna wychodzi więc od obserwacji pewnej skończonej liczby przedmiotów, zdarzeń i sytuacji, należącej do jednej skończonej klasy, oznaczonej tu przez S. Za pomocą tej obserwacji stwierdza się, że niektórym przedmiotom należącym do klasy S przysługuje cecha P. Wnioskowanie polega tu na stwierdzeniu, że skoro niektórym przedmiotom należącym do klasy S przysługuje cecha P, to wszystkim przedmiotom należącym do klasy S przysługuje cecha P. Wystarczy jeden kontrprzykład, to znaczy chociaż jeden przedmiot należący do klasy S, któremu cecha P nie przysługuje, by uznać wniosek otrzymany przez indukcję enumeracyjną niezupełną za fałszywy.

Wnioskowania za pomocą indukcji enumeracyjnej niezupełnej rodzą wiele problemów metodologicznych. Przy wnioskowaniu przez indukcję enumeracyjną niezupełną brak nam przesłanki, że wszystkie przedmioty należące do klasy S zostały zbadane pod kątem posiadania cechy P – właśnie to sprawia, że wnioskowania przez indukcję enumeracyjną niezupełną są zawodne. Nie znając wszystkich przedmiotów klasy S nie możemy bowiem wykluczyć, że wśród tych nieznanych istnieją takie, które cechy P nie posiadają – a gdyby istniał chociaż jeden przedmiot klasy S nie posiadający cechy P, całe wnioskowanie musiałby zostać odrzucone. Tak np. obserwując pewną liczbę grudek soli stwierdzamy, że każda z nich rozpuszcza się w wodzie – nie odnaleziono dotąd kontrprzykładu dla wniosku tej indukcji enumeracyjnej, przyjmujemy więc wniosek, że wszystkie grudki soli rozpuszczają się w wodzie. Obserwując pewną liczbę grudek metalu stwierdziliśmy, że rozszerzały się pod wpływem ciepła, przyjęliśmy więc wniosek, że wszystkie grudki metalu rozszerzają się pod wpływem ciepła – wiedząc jednak, że w pewnych warunkach grudki żeliwa kurczą się pod wpływem ciepła, musimy wniosek, że wszystkie grudki metalu rozszerzają się pod wpływem ciepła odrzucić.

Współczesna logika indukcji próbuje oprzeć je na teorii prawdopodobieństwa, w praktyce naukowej, a tym bardziej w rozumowaniach indukcyjnych dokonywanych potocznie, głównym czynnikiem odróżniania wartościowych i bezwartościowych wnioskowań dokonywanych za pomocą indukcji enumeracyjnej niezupełnej pozostaje zdrowy rozsądek – podstawowe aspekty zdroworozsądkowej oceny poprawności rozumowań redukcyjnych, do których należy zwłaszcza potrzeba zachowania właściwej proporcji między subiektywnym poczuciem stopnia pewności przesłanek a stopnia pewności wniosku, omawia rozdział Ocena poprawności rozumowań artykułu Rozumowanie. Trudno np. uznać za rozsądne rozumowanie indukcyjne głoszące, że wszystkie powstania polskie były nierozsądne, bo wszystkie zakończyły się klęską – w przypadku tego rozumowania przyjmuje się bowiem bardzo niewielką liczbę przesłanek (jako że polskich powstań narodowych było tylko kilka) dla tezy o zjawisku o wielkim zasięgu.

Indukcja zupełna

Indukcja zupełna (indukcja enumeracyjna zupełna, indukcja wyczerpująca) to wnioskowanie, w którym jakąś ogólną prawidłowość na podstawie zdań stwierdzających wszystkie możliwe przypadki wystąpienia tej prawidłowości. Od indukcji enumeracyjnej niezupełnej różni się tym, że indukcja enumeracyjna stwierdza występowanie jakiejś ogólnej prawidłowości na podstawie tylko niektórych, a nie wszystkich możliwych jej wystąpień. Indukcja zupełna jest w istocie rozumowaniem dedukcyjnym i niezawodnym – wprawdzie przesłanki w niej wynikają logicznie z wniosku, ale o jej dedukcyjności stanowi to, że zarazem wniosek wynika w niej logicznie z przesłanek. Przykładem rozumowania przez indukcję zupełną może być stwierdzenie przez nauczyciela obecności wszystkich uczniów przez stwierdzenie przy wyczytywaniu listy obecności, że obecny jest każdy poszczególny uczeń. W praktyce naukowej zastosowania indukcji zupełnej są bardzo ograniczone, istnieje bowiem wiele sytuacji, w których liczba możliwych wystąpień danej sytuacji jest niezmiernie duża lub wręcz nieskończona.

Najprostszy schemat wnioskowania przy użyciu indukcji zupełnej (w sytuacji, gdy wniosek i przesłanki są zdaniami kategorycznymi podmiotowo orzecznikowymi, nie np. okresami warunkowymi) przedstawia się następująco:

Indukcja eliminacyjna

Indukcja eliminacyjna Francisa Bacona

Indukcja eliminacyjna sprowadza się do sformułowania wyczerpującej listy hipotez na dany temat, które wzajemnie się wykluczają a następnie dokonanie eliminacji z użyciem narzędzia jakim jest eksperyment. Zakłada się, że jeśli lista hipotez jest wyczerpująca to musi się wśród nich znajdować także hipoteza prawdziwa. F. Bacon sformułował zasadę ograniczonej różnorodności świata, która zakłada, że dany temat można sformułować wyczerpująco i przedstawić skończoną listę.

Indukcja eliminacyjna Johna Stuarta Milla

Osobny artykuł: Kanony Milla.

Pierwszą próbą udoskonalenia indukcji enumeracyjnej niezupełnej była indukcja eliminacyjna Francisa Bacona, w doskonalszej postaci przedstawił indukcję eliminacyjną John Stuart Mill. Indukcja eliminacyjna Milla stanowi metodę poszukiwania związków przyczynowych między zjawiskami, a więc albo przyczyn pewnego zjawiska, albo skutków innego. Punktem wyjścia poszukiwania związku przyczynowego jest zgromadzenie możliwych przyczyn danego zjawiska (okoliczności, w których zjawisko to zachodzi) lub analogicznie prawdopodobnych skutków danego zjawiska. By wyodrębnić spośród przyczyn A1 – An rzeczywistą przyczynę zjawiska lub spośród skutków B1 – Bn rzeczywisty skutek zjawiska, Mill zbudował 5 schematów wnioskowań: kanon jedynej zgodności, kanon jedynej różnicy, kanon zmian współtowarzyszących, kanon połączonej metody zgodności i kanon różnicy reszt.

Według kanonu jedynej zgodności przyczyną lub skutkiem danego zjawiska jest ta okoliczność, która zjawisku temu stale towarzyszy, podczas gdy pozostałe ulegają zmianie. Kanon umożliwia odnalezienie tego zjawiska, które jest konieczne dla zajścia pewnego innego zjawiska – przez przyczynę rozumie się tu warunek konieczny. Kanon jedynej zgodności nie stanowi metody odnalezienia warunku wystarczającego. Kanon ten (przy założeniu, że wyodrębniliśmy tylko trzy przyczyny lub skutki danego zjawiska) przybiera postać wnioskowania:

Z dziejów problematyki indukcji

Starożytna i średniowieczna koncepcja nauki nie stanowiła nigdy w pełni wypracowanej i uporządkowanej teorii, a za warunek naukowości uznawała zgodność z pewnymi przyjmowanymi z góry założeniami – pojawiające się (np. u Rogera Bacona) zalążki metody eksperymentalnej miały charakter prekursorski. Warunki do szerszego zastosowania i lepszego sformułowania myśli średniowiecznych prekursorów metody indukcyjnej pojawiły się u progu czasów nowożytnych. Najbardziej znaczącym teoretykiem indukcji wczesnej nowożytności jest Francis Bacon, którego dzieło Novum organum (1620) już samym tytułem przeciwstawia się Organonowi Arystotelesa, tj. korpusowi arystotelesowskich pism logicznych stanowiącemu kanon starożytno-średniowiecznego pojmowania nauki jako opartej na dedukcji. Bacon przeciwstawia się także (wyrażonej zwłaszcza w Analitykach pierwszych) indukcji sformułowanej przez Arystotelesa, która była prostą indukcją enumeracyjną – uznając ją za dziecinną i poznawczo niemal bezwartościową, przeciwstawia jej pierwotną postać indukcji eliminacyjnej, opisaną szerszej w rozdziale Indukcja eliminacyjna Francisa Bacona.

Zasadniczy zwrot w dziejach filozoficznych rozważań nad indukcją stanowiły Badania dotyczące rozumu ludzkiego Davida Hume’a (1748). Dzieło to stało się początkiem problemu indukcji – w ujęciu Hume’a stanowi on alternatywę głoszącą, że albo wiedza jest pewna i dotyczy idei (konstruktów umysłu, np. przedmiotów matematycznych), albo jest niepewna i dotyczy faktów. Współcześnie pogląd, że wiedza o faktach świata materialnego nie jest pewna jest przyjęty powszechnie, w czasach Hume’a stanowił jednak szokujący paradoks, głównie ze względu na rozwój fizyki newtonowskiej. Sam Hume nie odnosi się w swoim ujęciu problemu do pojęcia indukcji, ale do pojęcia przyczynowości – według Hume’a nie ma żadnej logicznej konieczności, by to, co zdarzało się w przeszłości, zdarzyło się również później – teza, że słońce wzejdzie jutro o ile opiera się wyłącznie na obserwacji, że wschodziło do tej pory wielokrotnie, oparta jest jedynie na przyzwyczajeniu, skoro zaś nie jest konieczne, by przyczyny wywoływały skutki, nie istnieje też żaden obiektywny związek przyczynowo-skutkowy.

Drugim ważnym filozofem w dziejach rozwoju logiki indukcji był John Stuart Mill, który w odróżnieniu od Francisa Bacona nie przekreślał znaczenia dedukcji dla metody naukowej i w Systemie logiki dedukcyjnej i indukcyjnej (1843) podał lepszy niż baconowską metodę wnioskowania indukcyjnego, ulepszoną indukcję eliminacyjną opartą na kanonach Milla – przy pewnych interpretacjach indukcja eliminacyjna Milla stanowi jednak formę dedukcji. Rozumiana jako rozumowanie indukcyjne indukcja eliminacyjna nie jest objęta zastrzeżeniami Hume’a i nie potrzebuje budowy odrębnej od dedukcyjnej logiki indukcji – ani Bacon, ani Mill nie byli jednak świadomi jej innego niż indukcji enumeracyjnej niezupełnej statusu.

W wieku XX problem indukcji w sformułowaniu Hume’a i Immanuela Kanta stracił ważność – nie uległ jednak zanikowi, ale raczej przekształceniu. Logika indukcji jako samodzielna dyscyplina badań logicznych nie odpowiada na dawne pytanie, co usprawiedliwia pewność twierdzeń uzyskanych za pomocą wnioskowań indukcyjnych, ale na pytanie, co usprawiedliwia przyjęcie prawdopodobieństwa twierdzeń uzyskanych za pomocą wnioskowań indukcyjnych i to, że uznajemy je za lepsze niż sformułowane już dawniej rozwiązania tego samego problemu. Tak rozumiana logika indukcji, tj. teorie indukcji oparte na matematycznym aparacie prawdopodobieństwa i powiązane z pewnymi ideami filozoficznymi formułowali przede wszystkim neopozytywiści, zwłaszcza Rudolf Carnap.

Współczesne ujęcia problemu indukcji

Wybrane tezy logiki indukcji

Zobacz też

dowód indukcyjny

rozumowanie dedukcyjne

rozumowanie abdukcyjne

Linki zewnętrzne

Hasło The Problem of Induction w Stanford Encylopedia of Philosophy

Hasło Inductive Logic w Stanford Encylopedia of Philosophy

Źródło „https://pl.wikipedia.org/wiki/Rozumowanie_indukcyjne”

Dowód indukcyjny

Dowód indukcyjny to rozumowanie matematyczne korzystające z zasady indukcji matematycznej.

Zwykle dowody indukcyjne stosowane są w dziedzinach blisko związanych z teorią liczb naturalnych, nie brak jednak dowodów indukcyjnych w innych dziedzinach matematyki. Poprawne rozumowanie indukcyjne wymaga nie tylko wykonania kroku indukcyjnego (porównaj: indukcja matematyczna), ale także podania co najmniej jednego szczególnego przypadku prawdziwości twierdzenia, które się dowodzi.

Przykład dowodu indukcyjnego

Twierdzenie:

Dowód

1. Sprawdzenie prawdziwości twierdzenia dla n=1

Powyższa równość jest prawdziwa, zatem twierdzenie jest prawdziwe dla n=1

2. Założenie indukcyjne. Zakładamy, że twierdzenie jest prawdziwe dla pewnej dodatniej liczby naturalnej k.

3. Teza indukcyjna. Twierdzenie dla k+1

4. Krok indukcyjny. Pokażemy, że jeśli twierdzenie jest prawdziwe dla k to jest prawdziwe także dla k+1

Na mocy założenia:. Otrzymujemy zatem:

Sprawdziliśmy prawdziwość twierdzenia dla n=1; następnie przy założeniu, że twierdzenie jest prawdziwe dla k, pokazaliśmy, że jest ono prawdziwe dla k+1. Stąd, na mocy zasady indukcji matematycznej, twierdzenie jest prawdziwe dla wszystkich liczb naturalnych większych lub równych 1.

Zobacz też

przegląd zagadnień z zakresu matematyki,

przykład błędnego użycia indukcji,

indukcja pozaskończona,

indukcja strukturalna,

aksjomat indukcji.

Źródło „https://pl.wikipedia.org/wiki/Dowód_indukcyjny”

Rozumowanie dedukcyjne

Z Wikipedii

Dedukcja to rodzaj rozumowania logicznego, mającego na celu dojście do określonego wniosku na podstawie założonego wcześniej zbioru przesłanek. Istotą jest przechodzenie od ogółów do szczegółów. Rozumowanie dedukcyjne w odróżnieniu od rozumowania indukcyjnego jest w całości zawarte wewnątrz swoich założeń, to znaczy nie wymaga tworzenia nowych twierdzeń czy pojęć, lecz jest tylko prostym wyciąganiem wniosków. Jeśli jest przeprowadzone poprawnie, zaś zbiór przesłanek nie zawiera zdań fałszywych, to wnioski wyciągnięte w wyniku rozumowania dedukcyjnego są nieodparcie prawdziwe i nie można ich zasadnie zakwestionować.

Rozumowanie abdukcyjne

Z Wikipedii

Brak wersji przejrzanej

Rozumowanie abdukcyjne, abdukcja – pojęcie wywodzące się z filozofii Charlesa Peirce’a, stworzone dla oznaczenia procesu tworzenia wyjaśnień – jest procesem rozumowania, który dla pewnego zbioru faktów tworzy ich najbardziej prawdopodobne wyjaśnienia. Termin abdukcja jest czasem używany dla oznaczenia po prostu procesu tworzenia hipotez służących wyjaśnianiu obserwacji lub wniosków, ale definicja poprzednia jest bardziej rozpowszechniona tak w filozofii, jak i w informatyce.

Dedukcja i abdukcja różnią się co do kierunku, w którym reguła „a pociąga b” jest używana do tworzenia wniosków – warunek końcowy i reguła są użyte do założenia, że warunek początkowy może wyjaśnić warunek końcowy.

dedukcja: pozwala wyprowadzić a jako konsekwencję b: inaczej mówiąc, dedukcja jest procesem wyprowadzania wniosków z tego, co już jest wiadome.

abdukcja: pozwala wyprowadzić a jako wyjaśnienie dla b: abdukcja działa przeciwnie niż dedukcja, pozwalając wyprowadzić warunek wstępny a występujący w regule „a pociąga b” z wniosku b. Inaczej mówiąc, abdukcja jest procesem wyjaśniania tego, co jest nam już wiadome.

Kanony Milla

Brak wersji przejrzanej

Ten artykuł wymaga dodania linków wewnętrznych. Jeśli możesz, dodaj je teraz.

Aby uzyskać taki efekt: teoria, dymu, Witolda Gombrowicza, lodowce górskie – linki tworzymy według składni: [[teoria]], [[dym]]u, [[Witold Gombrowicz|Witolda Gombrowicza]], '''[[lodowiec górski|lodowce górskie]]'''.

Przed zapisaniem sprawdź, czy linki nie prowadzą do stron ujednoznaczniających.

Ten artykuł wymaga dopracowania zgodnie z zaleceniami edycyjnymi.

Należy w nim poprawić: wikizacja, wzory w Latexu.

Po wyeliminowaniu wskazanych powyżej niedoskonałości prosimy usunąć szablon {{Dopracować}} z kodu tego artykułu.

Kanony Milla – sformułowane przez Johna Stuarta Milla w 1843 roku tzw. schematy wnioskowania indukcyjnego. Zgodnie z intencją autora, kanony miały pomóc w rozwiązaniu problemu indukcji. Pozwalają ustalić związki przyczynowe między występowaniem zjawisk różnego rodzaju. Mill zdefiniował następujące kanony:

kanon jednej zgodności – dotyczy związków pomiędzy przyczyną a skutkiem danego zjawiska;

kanon jednej różnicy – ma miejsce wtedy, kiedy możemy wskazać warunki niezbędne do zaistnienia danej sytuacji;

kanon zmian towarzyszących – możemy zastosować wówczas, kiedy zaobserwujemy zmiany w natężeniu zjawiska w zależności od sytuacji towarzyszących;

kanon zgodności i różnicy;

kanon reszty.

Spis treści

1 Przegląd kanonów Milla

1.1 Kanon I, metoda zgodności

1.2 Kanon II, metoda różnicy

1.3 Kanon III, metoda łączona

1.4 Kanon IV, metoda zmian towarzyszących

1.5 Kanon V, metoda reszt

2 Kanony a reguły uogólniania Bacona

3 Analiza krytyczna kanonów Milla

3.1 Naprawa kanonów Milla

4 Źródło

5 Zobacz też

Przegląd kanonów Milla

Kanon I, metoda zgodności

Dwa, lub więcej, układy zdarzeń:

A B C \ a b c

A D E / a d e

Tłumaczymy: po ‘A’ stale następuje ‘a’, przed ‘a’ stale występuje ‘A’. Ponieważ ‘A’ jest jedynym wspólnym przypadkiem w dziedzinie poprzedników, a ‘a’ w dziedzinie następników. ‘B’, ‘C’, ‘D’, ‘E’, oraz ‘b’, ‘c’, ‘d’, ‘e’ są zmiennymi okolicznościami towarzyszącymi.

Kanon II, metoda różnicy

A B C \ a b c

B C / b c

Tłumaczymy: przed ‘a’ stale występuje ‘A’, gdyż w przypadku braku ‘A’ ‘a’ nie zachodzi, nawet mimo wystąpienia wszystkich innych okoliczności (co ukazuje drugi układ zdarzeń).

Kanon III, metoda łączona

A B C \ a b c

A D E \ a d e

B C / b c

D E / d e

Tłumaczymy: pierwsze dwa układy zdarzeń pozwalają uogólnić, że po ‘A’ zawsze występuje ‘a’, dwa kolejne, że w przypadku braku ‘A’ nie występuje też ‘a’. Przy czym dwa razy korzysta się tu z metody zgodności. Zapis ten można skrócić, uzyskując schemat zbliżony do metody różnicy:

A (B C D E) \ a (b c d e)

(B C D E) / (b c d e)

Kanon IV, metoda zmian towarzyszących

A B C \ a b c

A1B C / a1b c

Tłumaczymy: z tego schematu uogólnia się stwierdzenie, że przy zmianie ‘A’ (ilość) następuje zawsze zmiana ‘a’. Przy czym im więcej jest układów zdarzeń, ze zmodyfikowanymi parametrami, tym większa jest siła tego rozumowania.

Kanon V, metoda reszt

A B \ a b

B ma po sobie stale b

(B stale występuje przed b)

Tłumaczymy: pierwszy układ zdarzeń pozwala uogólnić, że po ‘A’ stale występuje ‘a’. Drugi wiersz, z już uogólnionego następstwa, pozwala uogólnić następstwo pewnych jego elementów.

Kanony a reguły uogólniania Bacona

Kanony Milla są bardzo podobne w swojej treści do reguł uogólniania Francisa Bacona. Różnią się w kwestii zadań stawianych. U Bacona chodzi w zasadzie o ustalenie istoty zjawiska, u Milla chodzi o ustalenie jego przyczyny. Wtórnie Bacon poszukuje własności, która stale występuje wraz z własnością badaną i odwrotnie, Mill poszukuje zdarzenia, które by zawsze następowało po badanym *lub* odwrotnie. W zasadzie własność można utożsamić ze zdarzeniem, a występowanie współczesne potraktować jako szczególny przypadek następczości (t = 0) i w ten sposób uznać, że Mill uogólnił zadanie postawione przez Bacona.

Analiza krytyczna kanonów Milla

W rozumieniu dosłownym kanony Milla nie są realizowane. Na przykładzie kanonu I, ze względu na niemożliwość doboru dwóch (a nawet więcej) przypadków, w których jedynym wspólnym elementem układu poprzedników i następstw, będą tylko dwa odpowiednie elementy. Na przykładzie kanonu II, nie istnieją chyba dwa przypadki, które różniłyby się tylko jednym zdarzeniem w dziedzinie poprzedników i jednym w dziedzinie następstw. Problem tkwi też w rozumieniu terminu ‘zdarzenie’, a zwłaszcza ‘zdarzenie, które się powtarza pozostając tym samym’.

Naprawa kanonów Milla

Założenia, które należy poczynić (milcząco):

określenie ogromnej masy zdarzeń jako obojętnych dla badania. Takich, które mogą zachodzić we wszystkich układach i nie niweczyć metody zgodności, oraz takich, które zajdą w jednym układzie a w innych nie, nie niwecząc przy tym metody różnicy.

zachodzenie pewnych okoliczności nieobojętnych, ale nie ujmowanych w układy, mimo że bez zajścia tych okoliczności (pewnej ramy, dla zachodzenia następstwa) następstwo by nie zaszło, to nie jest to jednak uchybienie w stosunku do metody zgodności. (np. w zestawieniu ‘naciśnięcie spustu ? wystrzał’, nie ujęcie okoliczności ‘uderzenie iglicy w spłonkę’, ‘czystość lufy’, ‘obecność naboju w komorze’)

Mówiąc, że metodzie różnicy wszystkie zdarzenia powtarzają się oprócz jednego, a w metodzie zgodności, że spośród wszystkich powtarza się tylko jedno, ma się na myśli ‘wszystkie’ i ‘żadne’ spośród podanych, określonych.

Zdanie „po ‘A’ zawsze następuje ‘a’” można przetworzyć na: ‘ilekroć wystąpi zdarzenie ‘A’ tylekroć wystąpi zdarzenie ‘a”.

Przy kanonach zgodności, różnicy, łącznym, reszty zakłada się, że badany następnik ‘a’ wśród określonych poprzedników ma dokładnie jeden, który zawsze (w granicach założenia 2.) przed nim występuje. W sytuacji odwrotnej zakłada się, że dla badanego poprzednika ‘A’ istnieje wśród określonych następników dokładnie jeden, który zawsze (w granicach założenia 2.) po nim występuje.

w przypadku kanonu zmian towarzyszących zakłada się dodatkowo, że zmiana intensywności ‘A’ zawsze pociągnie za sobą zmianę intensywności ‘a’. I analogicznie w drugą stronę.

Po przyjęciu założeń w stylu powyższych okazuje się, że kanony Milla są wszechobecne tak w indukcji naukowej, jak też w codziennym uogólnianiu. Zarówno Millowi jak i Baconowi w metodzie zmian towarzyszących chodzi o odkrycie poprzednika i następnika, pewnego A i B. Podczas, gdy w większości przypadków, w nauce, chodzi o określenie powiązania zmiany pewnej wielkości ze zmianą innej.

Wyznaczanie zależności między czynnikami zmiennymi. Przyrodnik nie poprzestaje na wskazaniu istnienia wartości, ale stara się wskazać na to, jaka to jest zależność i jaki jest jej charakter (np. Przez wyrysowanie wykresu zależności).

Źródło

Mieczysław Bombik „Miscellanea Logica”, t. 2

Zobacz też

warunek konieczny

warunek wystarczający

przegląd zagadnień z zakresu logiki

Źródło: „https://pl.wikipedia.org/wiki/Kanony_Milla”

Francis Bacon (filozof)

Ten artykuł dotyczy filozofa. Zobacz też: artykuł o innej osobie o tym nazwisku i imieniu.

Sir Francis BaconFrancis Bacon, 1. wicehrabia St Alban (ur. 22 stycznia 1561 – zm. 9 kwietnia 1626), angielski filozof, jeden z najwybitniejszych przedstawicieli filozofii epoki odrodzenia i baroku, eseista, polityk oraz prawnik. Uchodzi za jednego z twórców nowożytnej koncepcji nauki. Twórca teorii indukcji eliminacyjnej rozwiniętej później w tzw. kanonach Milla. Jeden z twórców empiryzmu.

Początkowo zajmował się odnową nauk, jednak jego aspiracje polityczne i światowe były znacznie silniejsze niż naukowe. Studiował nauki dyplomatyczne w Paryżu, potem rozpoczął karierę prawniczą. W 1595r. został członkiem parlamentu, 9 lat później doradcą prawniczym króla, następnie naczelnym prokuratorem państwa, lordem kanclerzem i baronem of Verulam, aż w 1621r. wicehrabią stanu Albans. Oskarżyli go o przekupstwo, został uwięziony, a następnie ułaskawiony przez króla. Resztę życia spędził w odosobnieniu, w 1626r. zaziębił się robiąc eksperymenty na śniegu i zmarł.

Pojawiały się teorie wnoszące, że to on był prawdziwym autorem dzieł Shakespeara, jednak nie ma na to żadnych dowodów.

Do dzisiaj eseje Bacona są uważane za wzór eseju angielskiego. Usiłował celować w aforystyczne ujęcia myśli. Główne dzieła: Eseje, 1597 Novum Organom, 1620 Nowa Atlantyda, 1627

Spis treści

1 Klasyfikacja nauk wg Bacona

1.1 Filozofia przyrody

1.2 Filozofia człowieka

2 „Tyle mamy władzy, ile wiedzy”

3 Empiryzm Bacona

4 Wkład Bacona w rozwój nauki

5 Dzieła

6 Dzieła o Baconie

Klasyfikacja nauk wg Bacona

Bacon chcąc objąć w swoich dociekaniach cały zakres nauki, pojmowanej przez niego bardzo szeroko, dokonał przygotowawczego podziału nauk. Podzielił je na trzy grupy ze względu na odpowiadające im władze duszy.

historia – pamięć (wszelki opis jednostkowych faktów)

poezja – wyobraźnia

filozofia – rozum (wszelkie poznanie ogólne – Bóg, przyroda, człowiek)

Bacon nie zajmował się obszernie istnieniem Boga, zakładając, że jest to sprawa wiary. Poznanie Boga za pomocą filozofii jest niemożliwe.

Filozofia przyrody

Bacon dokonuje dwóch podziałów filozofii przyrody. Według pierwszego podziału wyróżniamy:

filozofię spekulatywną – za pomocą której poznajemy prawa przyrody

filozofię operatywną – za pomocą której stosujemy prawa przyrody

Zgodnie z drugim podziałem filozofia przyrody dzieli się na:

fizykę – naukę o tym, jak rzeczy są zbudowane i jak powstają

metafizykę – naukę o tym, jaka jest ich istota i cel

Filozofia człowieka

antropologia – o jednostkach ludzkich. Obejmuje naukę o ciele i duszy człowieka. Z duszą wiązał Bacon logikę (naukę o myśli poznającej prawdę) i etykę (naukę o woli skierowanej ku dobru)

polityka – o społeczeństwie

„Tyle mamy władzy, ile wiedzy”

Bacon odszedł od ideału uprawiania wiedzy dla wiedzy. Nauka miała być narzędziem człowieka w walce z przyrodą. Poznawszy mechanizmy przyrody, człowiek miał zapanować nad nimi. Z tego powodu Bacon cenił ze wszystkich nauk najwyżej przyrodoznawstwo – było najbliższe temu celowi. Kolejnym celem nauki jest obdarzanie życia ludzkiego nowymi wynalazkami. Był pod bardzo silnym wrażeniem trzech wynalazków: druku, kompasu i prochu strzelniczego. Uważał, że to one zrewolucjonizowały świat na lepsze. Nauka kontemplacyjna jest nieskuteczna. Chodzi o to, by zbadać przyrodę, a nie rozmawiać o niej. Z tego powodu za najważniejsze narzędzie nauki uznał Bacon eksperyment.

Empiryzm Bacona

Bacon rozwinął metodologię empiryzmu. Zamierzał stworzyć taką metodę, która pozwoli odkryć stałe właściwości rzeczy. Poświęcił temu Novum Organum (1620), mające w założeniu być tomem wielkiej pracy reformującej całokształt nauki Instauratio Magna (nie dokończonej).

Bacon za wyjątkowo bezużyteczne narzędzie nauki uznał sylogizm. Zdaniem Bacona trzeba operować doświadczeniem, a nie założeniami. Metodzie sylogizmu Bacon przeciwstawia indukcję – stopniowe uogólnianie wiedzy, zamiast natychmiastowego układania ogólnych twierdzeń na podstawie danych zmysłowych. Właśnie dlatego Bacon twierdził, że „umysłowi ludzkiemu nie trzeba skrzydeł, lecz ołowiu”.

Bacon nie negował znaczeniu rozumu w poznaniu. Rozum i zmysły muszą ze sobą współpracować. Taka współpraca daje pewność wiedzy.

TEORIA ZŁUDZEŃ Bacon uważał, że umysł ludzki jest podległy różnego rodzaju złudzeniom (idola) Wyróżnił on cztery rodzaje takich złudzeń (jest to tzw. teoria idoli):

złudzenia plemienne (idola tribus) – wynikające z natury ludzkiej i wspólne wszystkim ludziom; należy do nich antropomorfizm i doszukiwanie się celowości w świecie;

złudzenia jaskini (idola specus) – przesądy jednostek, spowodowane przez wpływ wychowania i środowiska;

złudzenia rynku (idola fori) – powodowane przez niedokładność, nieadekwatność i wieloznaczność pojęć, niedoskonałość języka;

złudzenia teatru (idola theatri) – powodowane przez błędne spekulacje filozoficzne, których wyniki są przyjmowane na mocy autorytetu.

INDUKCJONIZM ELIMINACYJNY Człowiek może jednak usunąć owe złudzenia. Eksperyment wynagrodzi braki zmysłów, a indukcja złudzenia rozumu. Eksperyment, będąc podstawą poznania, nie może obejść się bez indukcji, ponieważ wymaga uogólnienia. Praca naukowa powinna przypominać pracę pszczół – ma zbierać i przetwarzać co zebrała. Właśnie indukcja ma spełnić zadanie przetwarzania danych. Zajmując się jakimś zjawiskiem, np. chłodem, należy dokonać zestawu trzech wypadków:

wypadki w których ta własność występuje (śnieg, wiatr) tablica obecności

wypadki gdzie tej własności nie ma (słońce, pustynia) tablica nieobecności

zestawić wypadki, gdzie ta własność występuje w różnym natężeniu (zależność od szerokości geograficznej) tablica stopni

Zbieranie wypadków jest wstępem do właściwej indukcji, której celem jest znalezienie własności stale wiążących się z danym zjawiskiem. Stałe własności rzeczy są jej istotą (formą)

Wkład Bacona w rozwój nauki

Bacon przyczynił się do rozwoju i ukierunkowania nauki poprzez:

Wyznaczenie konkretnych celów nauki

Wypunktowanie złudzeń umysłu, ograniczających czyste poznanie

Zaznaczenie wagi eksperymentu przy wyznaczaniu faktów

Opracowanie indukcji potrzebnej do uogólnienia faktów

Za życia wzbudzał podziw, że będąc mężem stanu miał czas na filozofię. Po aferze i uwięzieniu został zapomniany. Przypomniano sobie o nim w XVIII wieku i uznano za swego poprzednika. Kontynuatorzy to J. S. Mill i J.Hershel.

Dzieła

Essays (1597, wyd. Polskie Eseje, 1959)

The Advancement of Learning (1605)

Novum Organon (1620, wyd. Polskie Novum Organum, 1955)

De dignitate et Augmentin Scientiarum (1623)

New Atlantis (1660, wyd. Polskie Nowa Atlantyda, 1954)

Szkice polityczno-etyczne (1909 i 2003)

Dzieła o Baconie

Kazimierz Leśniak, Franciszek Bacon, Myśli i Ludzie 1961 i 1967

Tadeusz Kotarbiński „Program Bacona”, Lwów 1932

Mieczysław Maneli, Wiek XVI–XVIII : Bacon, Winstanley, 1960

Wiszniewski Michał, Bacona metoda tłumaczenia natury i inne pisma filozoficzne, BKF 1976

Władysław Tatarkiewicz, Historia Filozofii

Bertrand Russell, Dzieje Filozofii Zachodu

Adam Sikora, Od Heraklita do Husserla

Rozumowanie

Rozumowanie – proces myślowy polegający na uznaniu za prawdziwe danego przekonania lub zdania na mocy innego przekonania lub zdania uznanego za prawdziwe już uprzednio.

W znaczeniu potocznym rozumowanie poprawne to rozumowanie wymagające zastosowania reguł logiki, oraz uznanych za prawdziwe aksjomatów – np.: praw nauki (zobacz też paranauka), systemów prawnych, dogmatów religijnych, regulaminów, zasad kulturowych, obyczaju, tradycji, czy autorytetu.

Prócz rozumowań w dziejach filozofii wyróżnano także inne sposoby, za pomocą których ludzie uznają za prawdziwe jakieś przekonania – np. spontaniczne powstawanie przekonań, wpajanie przekonań na drodze wychowania, intuicja, przekonania wrodzone i przekraczające doświadczenie. Jednak to właśnie rozumowania są drogą powstawania przekonań szczególnie istotną z punktu widzenia logiki, tj. taką, której poprawność można sprawdzać. Najczęściej dzieli się rozumowania na dedukcyjne (takie, w których wniosek wynika logicznie z przesłanek) i redukcyjne (takie, w których przesłanki, przede wszystkim przyczyny, stwierdza się na podstawie przyjętej tezy), przy czym dedukcyjne są niezawodne, zaś redukyjne zawodne. Poza tymi głównymi typami rozumowań jest jeszcze jednak wiele innych, jak rozumowane przez analogię i wnioskowanie statystyczne.

Tadeusz Kotarbiński[1] zwraca uwagę na fakt, że można wyróżnić przynajmniej trzy znaczenia polskiego słowa „rozumowanie”, z których istotne dla logiki jest tylko znaczenie ostatnie. W pierwszym znaczeniu rozumowanie to każda praca umysłowa, czynności umysłu w opozycji do pracy fizycznej. W drugim znaczeniu, ujawniającym się w sporze racjonalizmu epistemologicznego z empiryzmem, rozumowanie to wszystkie czynności umysłowe z wyłączeniem obserwacji i doświadczenia. Rozumowanie jako pojęcie istotne dla logiki Kotarbiński definiuje jako przechodzenie od jednych sądów (racji, przesłanek w szerokim rozumieniu tego słowa) do innych (następstw, wniosków w szerokim rozumieniu tego słowa); logika zainteresowana jest formami rozumowania, nie zaś jego treścią.

Spis treści

1 Wybrane klasyfikacje rozumowań

2 Ocena poprawności rozumowań

3 Bibliografia

4 Przypisy

Wybrane klasyfikacje rozumowań

Ogólna klasyfikacja rozumowań stanowi przedmiot zainteresowania przede wszystkim polskiego piśmiennictwa filozoficznego – w filozofii obcojęzycznej nie występują też dokładne odpowiedniki terminów używanych w klasyfikacjach polskich. Niniejszy artykuł przedstawia trzy najszerzej znane polskie klasyfikacje rozumowań – Jana Łukasiewicza, Tadeusza Czeżowskiego i Kazimierza Ajdukiewicza.

Jan Łukasiewicz[2] definiował rozumowanie jako „taką czynność umysłu, która na postawie zdań danych, będących punktem wyjścia rozumowania, szuka zdań innych, będących celem rozumowania, a połączonych z poprzednimi stosunkiem wynikania”. Rozumowanie jest więc poszukiwaniem dla danego zdania następstwa lub racji – ze względu na to, czy szuka się racji czy następstwa, rozumowania można podzielić na:

rozumowania dedukcyjne – takie, w których dana jest racja, a kierunek rozumowania jest zgodny z kierunkiem wynikania. Rozumowania dedukcyjne dzielą się na:

wnioskowania – takie rozumowania dedukcyjne, w których dana racja jest zdaniem pewnym. Np. „(1) Jeżeli jest dziś piątek, to jesteśmy w Paryżu. (2) Jest dziś piątek. (3) A więc jesteśmy w Paryżu” (modus ponens). Przesłanki zdania (3) stanowiącego następstwo, tj. zdania (1) i (2), są jego racją.

sprawdzanie – takie rozumowania dedukcyjne, w których dana racja nie jest zdaniem pewnym, ale pewne jest jej następstwo. Np. gdy chce się sprawdzić, czy ktoś przeczytał Boską komedię, zadaje mu się szereg pytań o treść tego dzieła. Jeśli ktoś czytał książkę, zna jej treść, mógł ją jednak poznać w jakiś inny sposób (np. Przeczytać streszczenie). Zdaniem sprawdzanym (racją rozumowania sprawdzającego) jest więc tu zdanie „pytana osoba czytała Boską komedię”, następstwem zdanie „pytana osoba zna treść Boskiej komedii”.

rozumowania redukcyjne – takie, w których dane jest następstwo, a kierunek rozumowania jest przeciwny do kierunku wynikania, czyli poszukuje się racji. Rozumowania redukcyjne dzielą się na:

tłumaczenie – dobieranie racji dla zdania pewnego. Szczególnym typem tłumaczenia jest indukcja niezupełna. Tłumaczeniem jest np. rozumowanie, w którym chcąc znaleźć odpowiedź na pytanie, „czemu zrobiło się ciemno?” odpowiadamy, że „przepaliły się korki”.

dowodzenie – dobieranie racji pewnej do zdania niepewnego.

Jedną z głównych wad klasyfikacji Łukasiewicza jest to, że wbrew ogólnie przyjętym rozumieniom terminów „dedukcja” i „redukcja” zalicza ona dowodzenie do rozumowań redukcyjnych, sprawdzanie zaś do dedukcyjnych.

Klasyfikacja rozumowań Tadeusza Czeżowskiego[3] jest rozwinięciem klasyfikacji Łukasiewicza. Czeżowski bowiem tak samo jak Łukasiewicz pojmuje rozumowanie – jako poszukiwane racji dla następstw i następstw dra racji. Podobnie jak Czeżowski za główne typy rozumowań uznaje rozumowania redukcyjne i dedukcyjne

rozumowania dedukcyjne to takie rozumowania, w których na mocy uznanych już racji uznaje się następstwa.

rozumowania redukcyjne to takie rozumowania, w których dla uznanego już następstwa uznaje się racje.

Czeżowski przedstawia jednak odmienny podział rozumowań redukcyjnych i dedukcyjnych na podtypy. Wszystkie rozumowania redukcyjne i dedukcyjne Czeżowski dzieli na progresywne lub regresywne i odkrywcze lub uzasadniające.

rozumowanie progresywne to takie rozumowanie, w którym dana jest racja, a poszukiwane jest następstwo.

rozumowanie regresywne to takie rozumowanie, w którym dane jest następstwo, a poszukiwana jest racja.

rozumowanie odkrywcze to takie rozumowanie, w którym zdanie dane jest uznane, a zdanie poszukiwane jeszcze nie uznane.

rozumowanie uzasadniające to takie rozumowanie, w którym zdanie dane nie jest jeszcze uznane, a poszukuje się zdania już uznanego.

Stosownie do tych trzech podziałów (dedukcyjne-redukcyjne, progresywne-regresywne, odkrywcze-uzasadniające) można scharakteryzować główne typy rozumowań:

wnioskowanie to rozumowanie dedukcyjne, progresywne i odkrywcze.

dowodzenie to rozumowanie dedukcyjne, regresywne i uzasadniające.

sprawdzanie to rozumowanie redukcyjne, progresywne i uzasadniające.

wyjaśnianie (tłumaczenie) to rozumowanie redukcyjne, regresywne i odkrywcze. Czeżowski uznaje indukcję enumeracyjną niezupełną za odmianę wyjaśniania – wyjaśnianie uogólniające.

W pracy Klasyfikacja rozumowań[4] Kazimierz Ajdukiewicz skrytykował klasyfikację rozumowań Łukasiewicza i Czeżowskiego uznając ją za zbyt wąską i przedstawił własną. Klasyfikacja Ajdukiewicza opiera się na dwóch podziałach. Pierwszym jest podział sposobów wyprowadzania konsekwencji (wnioskowań): Ajdukiewicz wyróżnia tu wnioskowania dedukcyjne, wnioskowania uprawdopodobniające i wnioskowania logicznie bezwartościowe. Drugi podział jest bardzo złożony i opiera się na zagadnieniach opisywanych przez logikę pytań Ajdukiewicza. Opierając się na tych dwóch podziałach w swojej klasyfikacji Ajdukiewicz prócz typów rozumowań wyróżnionych przez Łukasiewicza i Czeżowskiego wyróżnił także wiele innych, np. wnioskowania statystyczne czy rozwiązywanie równań. Ogólną motywacją klasyfikacji rozumowań Ajdukiewicza jest chęć objęcia wszystkich typów rozumowań występujących w praktyce naukowej.

Ocena poprawności rozumowań

Zazwyczaj uznaje się, że przekonania mogą być racjonalne lub nieracjonalne. Wyróżniono wiele kryteriów racjonalności przekonań – do ważniejszych należy odwołanie się do autorytetu, zgodność z relacjami zmysłów, wewnętrzna niesprzeczność przekonania, brak danych przeciwstawnych do uznanych w przekonaniu itp. Szczególnie istotną metodą oceny racjonalności przekonań jest jednak ocena sposobu, za pomocą którego dane przekonanie powstało – racjonalne są przekonania które powstały na drodze rozumowania, o ile było to rozumowanie poprawne. Kryteria poprawności rozumowań stanowią jeden z głównych przedmiotów badań logiki.

Logika ocenia wyłącznie racjonalność przekonań zwerbalizowanych – pierwszym i koniecznym kryterium oceny tego, czy rozumowanie jest racjonalne, jest więc jego werbalizacja. Zwerbalizowane ciągi rozumowań składają się na argumentacje, tj. złożone wypowiedzi mające na celu nakłonienie kogoś do przyjęcia jakiegoś przekonania. O sile argumentacji stanowi nie tylko poprawność rozumowania – innymi niż poprawność rozumowania czynnikami stanowiącymi o sile argumentacji zajmuje się nie logika, a retoryka (opisowa). Nie jest przy tym tak, że w praktyce retorycznej i argumentacji retorycznej nie wzbudza się przekonań za pomocą rozumowań – przeciwnie, rozumowania poprawne są podstawą argumentacji retorycznej, a erystyka, czyli wzbudzanie przekonań za pomocą rozumowań celowo błędnych nie jest częścią sztuki retorycznej.

By wyodrębnić w argumentacji czynniki stanowiące o poprawności rozumowania od czynników retorycznych i ekspresywnych należy przeprowadzić analizę argumentacji, w której wyodrębnia się składniki logiczne mające wartość uzasadniającą, przede wszystkim racje (przesłanki) i następstwa (konkluzje, wnioski) rozumowań. W analizie takiej powinna ujawnić się struktura logiczna wypowiedzi.

Po dokonaniu analizy logicznej argumentacji by ocenić poprawność rozumowania należy przede wszystkim ocenić poprawność przesłanek i to, czy można wyprowadzić z nich wniosek. Dla każdego typu rozumowania (niezależnie od tego, czy jest to rozumowanie pewne) należy starać się o to, by przesłanki były zdaniami prawdziwymi – przyjęcie nieprawdziwych przesłanek stanowi błąd zwany błędem materialnym i jeśli któraś z nich może być odrzucona, możemy odrzucić całe rozumowanie. W wielu rozumowaniach (nawet we wnioskowaniach matematycznych) pomija się wiele przesłanek uznanych za oczywiste – rozumowania takie noszą nazwę rozumowań entymematycznych (ich szczególnym typem są wnioskowania entymematyczne). By ocenić poprawność wnioskowania entymematycznego należy często uzupełnić je o brakujące przesłanki i ocenić ich prawdziwość, ze względu na zawodność poczucia oczywistości. Istnieją także rozumowania entymematyczne w których podane są wszystkie przesłanki, nie została jednak jasno podana konkluzja – w erystyce są one środkiem, dzięki któremu można łatwo doprowadzić słuchacza do konkluzji błędnej.

Prócz oceny przesłanek należy ocenić poprawność następstwa – by to uczynić, trzeba określić typ rozumowania, z którym mamy do czynienia, dla różnych typów rozumowań sposoby wyprowadzania następstw są bowiem odmienne. Rozumowania dedukcyjne mają charakter rozumowań niezawodnych – relacja wynikania ma w nim charakter czysto logiczny, zachodzi na mocy samej struktury zdania. By ustalić, że dane rozumowanie logiczne jest poprawne, trzeba udowodnić je za pomocą przyjętych aksjomatów lub zdań już udowodnionych i reguł wynikania. Istnieje przy tym wiele rozumowań poprawnych, które możemy ocenić intuicyjnie – przeważnie są one podstawieniami najważniejszych tautologii. By całe rozumowanie ocenić jako niededukcyjne i przez to zawodne, wystarczy też podanie dla rozumowania o pewnych przesłankach kontrprzykładu dla wniosku. Rozumowania, o których sądziliśmy, że są niezawodne, a w których nie zachodzi w rzeczywistości stosunek wynikania, obarczone są błędem formalnym. Istnieje wiele typowych błędów formalnych (błędne koło w rozumowaniu, błąd ekwiwokacji itp.), które logika opisuje jako błędy logiczne.

Ocena poprawności rozumowań niededukcyjnych jest zagadnieniem o wiele bardziej złożonym – nie powstała też dotychczas w logice spójna, wyczerpująca i szeroko akceptowana teoria tych rozumowań. W przypadku rozumowań nieredukcyjnych daje się zauważyć rozdźwięk między standardami przyjętymi w naukach przyrodniczych a rozumowaniami indukcyjnymi przeprowadzanymi na co dzień. Te przeprowadzane na co dzień są zazwyczaj bardzo fragmentaryczne i nieprecyzyjne – dlatego też szczególnie fragmentaryczne i nieprecyzyjne muszą być kryteria ich oceny. Jednak dla wszystkich rozumowań redukcyjnych, także naukowych, nie da się wskazać pełnego zestawu reguł poprawności – można wymienić tylko najbardziej podstawowe. Można je uznać za poprawne np. jeśli ich przesłanki trudno zakwestionować, jeśli nie są one subiektywnie pewne, jeśli nie zachodzi wyraźna dysproporcja między przyjmowaną pewnością wniosku a przyjmowaną pewnością przesłanek, jeśli ich wyniki nie są niezgodne z podstawowymi składnikami dotychczasowej wiedzy o świecie, jeśli nie przecenienia się prawdopodobieństwa prawdziwości wniosku w świetle przesłanek itp. Typowe sytuacje, w których przecenia się prawdopodobieństwo wniosku w świetle przesłanek to opieranie się na zbyt małej liczbie obserwacji, opieranie się na zbyt małej próbie danej zbiorowości, opieranie się na niereprezentatywnej próbie danej zbiorowości, ignorowanie obserwacji niezgodnych z konkluzją ze względu na stronniczość obserwatora, utożsamienie zwykłego następstwa czasowego dwóch stanów rzeczy ze związkiem przyczynowo-skutkowym, założenie że każde zjawisko ma tylko jedną przyczynę, nie branie pod uwagę alternatywnych hipotez.

Tak rozumowania redukcyjne, jak i dedukcyjne mogą być obciążone błędem mętności. Rozumowania mętne to takie rozumowania, w których wniosek lub przesłanki zostały sformułowane niejasno – tak, że istnieje wiele sposobów ich interpretacji. Szczególnymi przypadkami rozumowań mętnych są rozumowania obciążone błędem kwantyfikacji lub kwalifikacji, rozumowania, dla których na skutek entymematyczności nie da się ustalić, czy mają one charakter dedukcyjny czy redukcyjny przez rozumowanie enigmatyczne (takie, w których nie da się odgadnąć części przemilczanych). W przypadku rozumowań mętnych można starać się o przeprowadzenie oceny poprawności argumentacji na drodze ustalania za pomocą kontekstu tego, jakie były intencje ich twórcy. Jeśli jednak interpretacja znaczenia przesłanek i wniosku rozumowania nie jest możliwa (szczególnie, gdy nie jest w stanie podać jej sam twórca rozumowania) nie jest możliwa także żadna analiza jego poprawności.

Bibliografia

Teresa Hołówka, Kultura logiczna w przykładach, 2005

Tadeusz Kotarbiński, Elementy teorii poznania, logiki formalnej i metodologii nauk, 1986

Przypisy

^ Tadeusz Kotarbiński, Elementy teorii poznania, logiki formalnej i metodologii nauk, 1986, str. 207–226.

^ Jan Łukasiewicz, O nauce, w: Poradnik dla samouków, Warszawa 1915

^ Tadeusz Czeżowski, Główne zasady nauk filozoficznych, 1959

^ Kazimierz Ajdukiewicz, Klasyfikacja rozumowań, w: Język i poznanie, t. 2, 1965

Źródło „https://pl.wikipedia.org/wiki/Rozumowanie”

1. Nauka – społeczna działalność ludzi, mająca na celu obiektywne poznanie rzeczywistości, wyrastające z potrzeb jej opanowania i przekształcenia przez człowieka.

Czynności nauki:

— powiązana z poznaniem wybranego fragmentu rzeczywistości tzw. proces poznawczy (tworzenie nauki),

— utrwalanie wytworu czynności czynności poznawczych (wiedza naukowa) składają się w zdania, które nazywamy twierdzeniami, muszą być odpowiednio uporządkowane i uzasadnione,

— czynności przekazywania fragmentu wiedzy naukowej, inaczej propedeutyka,

— przyswajanie wiedzy naukowej.

2. Kryteria naukowości,

— intersubiektywnej komunikowalności twierdzeń naukowych – język nauki powinien być zrozumiały dla obrońców nauki, twierdzenia ogólne, ścisłe, proste, wysoka informacyjność,

— intersubiektywnej kontrolowalności twierdzeń naukowych – umożliwiają potwierdzenie tez naukowych, mają na celu uznanie twierdzeń za prawdziwe lub wysoce prawdopodobne,

— niesprzeczne usystematyzowanie stwierdzeń.

3. Klasyfikacja nauk:

— ze względu na przedmiot badań: nauki przyrodnicze (przyroda nieożywiona i ożywiona wraz z człowiekiem z jego fizjologiczną wrażliwością), nauki społeczne (badają świadomą działalność człowieka, czyli kulturę nauki humanistyczne),

— ze względu na uzasadnienie twierdzeń naukowych: nauki formalne, analityczne, dedukcja, indukcja i nauki empiryczne (syntetyczne) uzasadnia się poprzez odwołania do doświadczeń,

— ze względu na kryterium celu badań: nauki teoretyczne (obiektywnego poznania i wyjaśnienia rzeczywistości oraz przewidywania zachodzących w niej przemian), nauki praktyczne (określenie sposobów dalszego rozwoju i przekształcania rzeczywistości.

4. Typy pytań stosowane w postępowaniu badawczym:

— ze względu na strukturę logiczną: rozstrzygające (proste, zawierające jedną alternatywę – wymagające wybrania jednej spośród dwóch odpowiedzi), dopełniające (złożone, zawierające zazwyczaj więcej niż jedną alternatywę i wymagające szerszej odpowiedzi),

— ze względu na pozyskiwanie określonych wiadomości: informacyjne (uzyskanie od różnych podmiotów gotowych odpowiedzi), badawcze (składają się z kilku części, pytań, problemy badawcze).

5. Hipoteza – przypuszczenie, domysł intelektualny, wysunięty dla wyjaśnienia jakiegoś zjawiska, procesu, które wymagają potwierdzenia lub obalenia przez rozstrzygnięcie badawcze.

Cechy:

— nowość (wskazania nieznanych aspektów badawczych, itp.),

— ogólność (objecie zakresem wszystkich faktów zjawisk i procesów z danego zakresu),

— komunikatywność pojęciowa (użyte pojęcia powinny być jednoznaczne i możliwie dostatecznie precyzyjne),

— empiryczna sprawdzalność (możliwość weryfikacji, potwierdzenia lub obalenia przypuszczenia),

— niewystępowanie sprzeczności wewnętrznych.

6. Funkcje nauki:

— poznawcza (deskrypcyjna – opisowa, faktograficzna, jaka jest rzeczywistość; eksplikacyjna – wyjaśniająca, dlaczego dane zjawisko zaistniało; prognostyczna – przewidująca, jaka będzie rzeczywistość w przyszłości);

— praktyczna (techniczna);

— świadomościowa (społeczna);

— instrumentalna (jakie podjąć decyzje, jakie zastosować środki, aby osiągnąć cel);

— informacyjna (jaka jest rzeczywistość podana w informacji);

— ideologiczna (do jakich celów należy dążyć).

7. ???

8. Polityka – działalność społeczna związana z dążeniem do zdobycia i wykonywania władzy wewnątrz państwa oraz w stosunkach międzynarodowych.

Etapy tworzenia politologii:

— nauki polityczne – zlepek nauk społecznych, nie było jeszcze teorii polityki,

— nauka o polityce – następuje świadomość oddzielenia polityki, zaczęła się tworzyć teoria polityki,

— politologia – zbudowano teorię ogólnie, ma pewną generalizację.

W 1948 r. opracowano w Paryżu listę problemów:

I grupa problemów to teorie polityczne,

II grupa problemów to instytucje polityczne,

III grupa to pewne grupy i opinie publiczne,

IV grupa to stosunki międzynarodowe.

9. Podejście systemowe: na potęgę państwa wpływa wejście, przetwarzanie, wyjście.

10. Sprzężenie proste – występuje, gdy jeden system oddziałuje na drugi. Rzadko się zdarza.

Sprzężenie zwrotne – występuje, gdy oba systemy oddziałują na siebie wzajemnie, może być ono dodatnie (reakcja obu systemów, wzmacniają się, odrobina eskalacji i konfliktu) lub ujemne (gdy jeden system daje silne bodźce, to drugi słabsze).

11. Cechy podejścia systemowego:

— badany przedmiot traktujemy jako całość,

— system traktuje się jako obiekt złożony z wzajemnie powiązanych systemów.

Każdy zespół jest obiektów, który należy do podsystemów. Musi być rozdzielony, w badaniu systemowym musi to być rozdzielność pełna.

Oddziaływanie, system oddziaływań.

Wejście, wyjście.

Rygor podejścia systemowego – charakter holistyczny, podejście całościowe.

12. Metody badawcze (zasady i sposoby systematycznych dociekań w celu poznania obiektywnej rzeczywistości):

— metoda systemowa – polega na konstruowania modelu pojęciowego zjawisk politologicznych,

— metoda porównawcza – polega na wykrywaniu podobieństw między procesami i zjawiskami, które prowadzą także do ustalania różnic między nimi,

— metoda ilościowo-jakościowa, umożliwia badanie specyfiki określonych zbiorowości, pozwala na ustalenie i rozpoznanie zjawisk masowych, inspiruje do wyjaśniania związków przyczynowych między nimi oraz służy przewidywaniu trendów dalszego rozwoju,

— metoda instytucjonalno-prawna – polega na zakreśleniu pola badań do sfery określonych przepisów prawnych,

— metoda historyczna – bada genezę zjawisk polityczno-historycznych, funkcje poszczególnych instytucji, prowadzi studia politologiczne,

— metoda behawioralna – analiza zachowań politologicznych w drodze obserwacji zachowań jednostek ludzkich i złożonych z tych jednostek grup społecznych,

— metoda symulacyjna – polega na tworzeniu kompleksowych modeli rzeczywistości politycznej, a zwłaszcza zachowań psychologicznych, socjologicznych, decyzyjnych, na poszukiwaniu danych drogą gier i zabaw, dyskusji, a następnie przetwarzaniu ich,

— metoda decyzyjna – polega na rozpatrywaniu zjawisk i procesów społeczno-politycznych przez pryzmat ośrodka decyzji, procesów decyzyjnych.

13. Metoda interpolacji – stosuje się w praktyce, gdy nie jest kompletny materiał statystyczny do rozpatrywania danych zjawisk. Wobec potrzeby określenia orientacyjnej, przybliżonej, wielkości zjawisk dokonuje się na podstawie posiadanych materiałów, a w tym nierzadko pochodzących z różnych źródeł. Metody te mają na celu ujawnienie stanu przybliżonego danego zjawiska.

14. Obliczenia wyczerpujące polegają na obserwowaniu całej zbiorowości statystycznej i badaniu wszystkich jednostek wchodzących w skład tej zbiorowości, np. spis ludności.

Obliczenia niewyczerpujące – polegają na ograniczeniu się do obserwacji tylko pewnej części, czyli próbki.

15. Mediana – wartość jednostki zajmującej środkowe miejsce w zbiorowości statystycznej uporządkowanej według wielkości jednostki.

Średnia geometryczna – stosuje się, jeżeli wartość cechy zmiennej poszczególnych jednostek zbiorowości statystycznej, czyli wartość jednostek statystycznych są przedstawione w formie zmian względnych, gdzie wprowadza się pojęcia logarytmów.

Średnia arytmetyczna – otrzymuje się przez podzielenie sumy wartości zmiennych odpowiadających poszczególnym wartością jednostek statystycznych przez ich liczebność (tj. przez liczbę tych jednostek).

16. Metoda porównawcza – polega na wykrywaniu podobieństw między procesami i zjawiskami, które prowadzą do ustalenia różnic między nimi;

wymiar wzorca – polega w praktyce na naśladowaniu modelu rozwoju cywilizacyjnego, zjawisk i procesów, a w tym rozwiązań politycznych, społecznych i gospodarczych krajów o wysokim poziomie rozwoju kulturowego.

Wymiar luki polega w praktyce na odkrywaniu przez podmioty polityki, misji cywilizacyjnej, a w tym osiągania dla siebie różnych korzyści zarówno w przestrzeni globalnej jak i lokalnej.

17. Analiza instrumentalno-prawna analiza norm prawnych. Rozpoznanie tekstów aktów normatywnych, Zakreślenie pola badań do sfery określonych przepisów prawnych., założenie się przyjmuje charakteryzujące kulturę prawną, analizy są zwłaszcza w badaniu funkcjonowania instytucji politycznych systemów politycznych itp.

18. Metoda behawioralna (analiza zachowań w drodze obserwacji, w rzeczywistości życia politycznego, rzeczywistości realnie istniejącej a nie jej wizji. W metodzie symulacyjnej tworzy się kompleksowe modele rzeczywistości politycznej, zachowań psychologicznych i socjologicznych.

19. Powinny być uzależnione od możliwości badawczych, kosztów, nakładu czasu, ludzi, narzędzi, dostępności rozpoznawanej populacji.

20. Sytuacja decyzyjna może być normalna lub kryzysowa.

Osobowość polityczna: silna – urodzony dowódca, indywidualność.

Magnetyczna – dobrze reprezentująca się w mediach.

Perfekcyjna – czuły na niedociągnięcia ludzkie, zorganizowany, ma wady – w chwili kryzysu nie może sobie dać rady.

Spokojny – nie chce być przywódcą, ale jest wybierany przez innych, typowy pragmatyk, często idzie na kompromis.

Implementacja polityczna – proces urzeczywistniania decyzji politycznych poprzez uruchomienie odpowiednich środków działania, głównie drogą przekształcenia decyzji politycznych w decyzje państwowe.

Implementacja nieskuteczna – z reguły jest to błąd polityczny.

Implementacja przeciwskuteczna – wychodzą całkowicie inne skutki od tych, jakie były założone.

21. Obserwacja – czynność polegająca na gromadzeniu danych droga spostrzeżeń aktywność naturalnym ich przebiegu i pozostających aktywność bezpośrednim zasięgu widzenia i słyszenia badacza.

Cechy:

— aktywność – selektywność, obserwator nie rejestruje wszystkich spostrzeżeń, jakie docierają do niego od przedmiotu poznania, lecz dokonuje ich selekcji,

— celowość, obserwator skupia się tylko na cechach elementarnych interesujących go z punktu widzenia potrzeb poznania zjawiska,

— planowość – obserwator postrzega zjawisko, proces według planu odpowiadającego celowi,

— wnikliwość – obserwator postrzega zjawisko i procesy w celu rozwiązania ściśle określonego zadania, sformułowanego dokładnie i szczegółowo,

— systematyczność – obserwacja nie może być postrzeganiem przypadkowym, dokonującym się jednorazowo, ale powinna być prowadzona według określonego systemu pozwalającego postrzegać obiekt wielokrotnie i w różnorodnych warunkach jego istnienia.

22. Klasyfikacja obserwacji ze względu na sposoby dokonywania obserwacji: bezpośrednia (bezpośrednio zbiera się danie), pośrednia (badacz nie uczestniczy w zbieraniu danych i nie ma wpływu na ich powstanie), kontrolowana (wykorzystanie w procesie postrzegania określonych narzędzi systematyzujących informację), niekontrolowana (prowadzona bez narzędzi systematyzujących), jawna (społeczność badana jest poinformowana), ukryta (nie jest).

Klasyfikacja obserwacji ze względu na czas trwania: ciągła (trwająca w ciągu dłuższego czasu), próbek czasowych (przebiegająca w ciągu wybranych krótkich odcinków czasu), całościowa (celem jest uzyskanie obrazu badanego obszaru rzeczywistości społeczno-politycznej), częściowa (spostrzeganie wybranego odcinka tej rzeczywistości).

23. Wywiad – rozmowa badacza z respondentem lub respondentami według opracowanych wcześniej dyspozycji bądź na podstawie specjalnego kwestionariusza.

Typy wywiadów:

— ustny – rozmowa przeprowadzona w formie swobodnej rozmowy, przebiega ona zgodnie z celem badawczym,

— pisemny – pytania zadawane na piśmie i odpowiedzi udzielanie też,

— skategoryzowany – przeprowadzony ściśle według wcześniej przygotowanego wzoru,

— nieskategoryzowany – jest bardzo swobodny, badający ma pełną inicjatywę, kieruje się tylko określonym celem,

— indywidualny – gdy rozmowę badacz prowadzi tylko z jedną osobą,

— zbiorowy – wywiad prowadzi się z więcej niż jedna osobą, umożliwia w krótszym czasie zbadanie większej liczby ludzi i stwarza okazje, aby uzyskać bardziej wiarygodną informację,

— panelowy – zadawanie pytań przez jednego badacza kilku respondentom.

24. Ankieta – swoisty typ wywiadu pisemnego, gdzie skategoryzowany kwestionariusz wypełnia respondent. Klasyfikacja:

— pocztowa – rozsyłana jest pocztą do poszczególnych adresatów, wybranych do badań,

— prasowa,

— handlowa – dołączenie kwestionariusza do zakupionych towarów czy degustowanych artykułów,

— radiowa i telewizyjna – pytania zadawane w telewizji bądź radiu,

— audytoryjna, bezpośrednia styczność badacza z audytorium, czy grupa osób zgromadzonych instytucjonalnie w określonym miejscu i czasie,

— rozdawana – dostarczana przekazywana respondentom przez ankieterów,

— jawna – wypełniane pisemnie, podpisane przez respondenta,

— anonimowa.

25. Konieczne elementy ankiet:

— struktura – elementy, z jakich powinien się składać kwestionariusz, który zamierza się wykorzystać w przeprowadzonym badaniu,

— forma i treść,

— wygląd zewnętrzny.

26. Cechy pytań w ankiecie:

— rzeczywistość – pytania tworzone na podstawie dobrej znajomości zagadnienia,

— wiarygodności co do udzielonej odpowiedzi – powinny one dotyczyć kwestii, na które respondent jest w stanie udzielić wiarygodnej odpowiedzi,

— niesugestywność – pytania nie powinny być sugerowane, dwuznaczne, dotyczące spraw drażniących, mogące powodować zniechęcenie czy oburzenie respondentów,

— orientacja na uzyskiwanie danych porównawczych, obiektywnych, sprawdzających,

— gradacja ważności merytorycznej w kolejności stawianych pytań, to samo pytanie w innej kolejności ustawione i innym kontekście konstruuje inaczej świadomość respondenta, a przez to może prowadzić do udzielenia odmiennej odpowiedzi.

Rodzaje pytań w ankiecie:

— zamknięte – zaopatrzone w przewidywane z góry odpowiedzi,

— półotwarte – zawierają przygotowane warianty odpowiedzi,

— otwarte – całkowita swoboda odpowiedzi,

— filtrujące – stawia się je celu eliminacji respondentów, którzy nie są kompetentni do udzielenia odpowiedzi dotyczących danych kwestii.

27. Ranking – ustalenie kolejności według przyjętego kryterium, jest wynikiem pomiaru, pozwala ustalić co jest na najniższym, a co na najwyższym szczeblu, np. indeks korupcji postrzeganej, wskaźnik starzenia się ludzi.

Rating – produkt bardziej wyspecjalizowany, rynek finansowy. Jest oceną ryzyka kredytowego. Jest wyróżniany w sformalizowany sposób wg przyjętego wzoru.

28. Typy badań stosowanych w naukach społecznych:

— obserwacja, gromadzenie danych drogą spostrzeżeń, w naturalnym ich przebiegu w bezpośrednim zasięgu widzenia i słyszenia,

— wywiad, rozmowa badacza z respondentem lub respondentami według opracowanych wcześniej dyspozycji,

— ankieta – rodzaj wywiadu pisemnego, skategoryzowany kwestionariusz wypełnia respondent.

29. Wymogi prawidłowego wyboru metod i technik badawczych:

— powinny obejmować wszystkie zagadnienia będące przedmiotem rozpoznania naukowego,

— powinny być dobrane, aby wzajemnie dopełniały i umożliwiały weryfikację,

— powinny uwzględnić uwarunkowania, właściwości ogólne i specyficzne populacji i zjawiska,

— winny być uzależnione od możliwości badawczych, kosztów, nakładu czasu, ludzi, narzędzi, dostępności rozpoznawanej populacji.

30. Kolejne czynności przy opracowywaniu materiałów badawczych:

— weryfikacja – sprawdzenie i określenie wartości naukowych zebranych podczas badania,

— selekcja – polega na wyselekcjonowaniu zebranego materiału badawczego pod względem przydatności do danego badania czy realizacji określonego tematu poznawczego,

— klasyfikacja – polega na podziale zebranych materiałów badawczych według przyjętych przez badającego określonych kryteriów, cech.

— kategoryzacja – grupowanie, łączymy dane ze względu na wspólne ich właściwości w określone klasy kategorie.

31. Analiza – polega na rozłożeniu rozpoznawanego materiału na części składowe i rozpatrywaniu każdej części osobno albo na myślowym rozczłonkowaniu za pomocą logicznej abstrakcji.

Typy analizy:

— elementarna – występuje wtedy gdy rozkłada się przedmiot badań na elementy i nie dopatruje się między nimi wzajemnych stosunków, ma opisowy charakter,

— przyczynowa – ma na celu wykrywanie związków między poszczególnymi zjawiskami, polega na rozkładaniu przedmiotu badań na części składowe, ze zwróceniem uwagi na związki między nimi,

— logiczna – polega na rozkładaniu złożonych przedmiotów poznawczych na ich części składowe, z uwzględnieniem zachodzących między nimi stosunków logicznych.

32. Synteza – łączenie wielu różnych elementów w jedną część.

Typy:

— elementarna – polega na tworzeniu całości z poszczególnych elementów z różnych faktów, zjawisk, formułuje się wybór typowy, który uznaje się za podobny do wszystkich, a zatem można go uznać za reprezentacyjny dla całości,

— przyczynowa – jest odwróceniem analizy, jest jej sprawdzeniem, wzajemne relacje i stosunki między elementami badań sprawdza się do uogólnienia,

— logiczna – polega na łączeniu elementów składowych w całość z uwzględnieniem między nimi stosunków logicznych.

33. Syntezy typu tradycyjnego:

— narracyjna – polega na budowaniu namiastki teorii, zwanej metaforą ogólną, która na bazie materiału empirycznego jest logiczną operacją ujmującą rzeczywistość teoretycznie,

— pragmatyczna – motywacyjna – polega na wskazaniu praktycznych głównych przyczyn oraz skutków zjawisk i procesów będących przedmiotem dociekań analitycznych,

— genetyczna – wyjaśniająca, polega na ukazaniu głównych zależności, związków, oddziaływań między różnymi faktami, zjawiskami jego elementami rozpoznawanej całej danej rzeczywistości społeczno-politycznej.

Synteza typu nowoczesnego:

— nomologiczna – polegająca na poszukiwaniu prawidłowości w rozwoju zjawisk i procesów,

— typologiczna – polegająca na wyborze typowego zdarzenia, zjawiska, i ustalenia podobieństwa do nich podobnych cech w innych zdarzeniach, zjawiskach, procesach życia społeczno-politycznego,

— porównawcza – polegająca na zestawieniu danych zjawisk i procesów z ujawniającymi się w oscylacjach cyklicznych w czasie i przestrzeniu, przyjmuje się w tym względzie założenie o powtarzalności określonych zjawisk w czasie jako w procesie cyklicznym.

34. Klasyfikacja – polega na podziale zebranych materiałów badawczych według przyjętych przez badającego określonych kryteriów, cech.

Typologia – metoda polegająca na zaliczaniu elementów danego zbioru do pewnej kategorii na podstawie ich podobieństwa do elementów uznanych za wzorce, typowe dla danej kategorii.

Zasoby państwa, technologie, zasoby ludzkie, przedsiębiorczość, zasoby kapitałowe, rzeczowe.


Nauka

Z Nonsensopedii, polskiej encyklopedii humoru

Nauka – zbiór niezbyt ścisłych teorii (z wyjątkiem teorii nauk ścisłych, które są ścisłe ale zazwyczaj wewnętrznie sprzeczne), poukładanych w dziedziny, poddziedziny, dyscypliny i poddyscypliny, a także podzielone między nauki interdyscyplinarne.

Podział dyscyplin naukowych

Naukę można dzielić w poprzek, wzdłuż, a także po ukosie. Niezależnie od metody dzielenia, wszyscy naukowcy są zgodni, że wszystkie te podziały są sztuczne, gdyż nauka tworzy niepodzielną jedność.

Zagadnienie naukowości

Zagadnienie naukowości jest niezwykle ważne, gdyż na podstawie kryterium naukowości decyduje się czy przyznać kasę na badania. Większość naukowców bez kasy nie chce prowadzić badań i zamiast tego woli zająć się np. handlem pietruszką.

Wg Tadeusza Kotarbińskiego naukowe są te badania, które się prowadzi w instytucjach, które rząd uznaje za naukowe (czytaj: łoży na nie kasę). W niektórych krajach istnieją też instytucje robiące coś w rodzaju badań naukowych, na które łożą naiwni szefowie koncernów międzynarodowych i szefowie miejscowych mafii, dla których jest to bardzo wygodny sposób prania brudnych pieniędzy. Naukowcy z instytucji opłacanych przez rząd powszechnie uważają, że badania prowadzone w instytucjach sponsorowanych prywatnie to pseudonauka.

Kryteria, jakie stosuje rząd do ustalania co finansować, są w większości przypadków oparte na relacjach towarzyskich z tzw. luminarzami nauki.

Reasumując, prawdziwym kryterium naukowości, są sekretne ustalenia między luminarzami nauki i urzędnikami ministerialnymi średniego szczebla, zwykle czynione w lokalach położonych w pobliżu gmachów ministerialnych, o niezbyt dobrej reputacji, wśród reszty populacji.

Istnieją też inne kryteria naukowości, ale filozofowie wszystkich krajów połączyli swoje wysiłki aby udowodnić, że nie mają one żadnego sensu.

Zobacz też

Paradygmat

Źródło: „http://nonsensopedia.wikia.com/wiki/Nauka”

Wykład I dnia 10.10.03 Metodologia

METODOLOGIA

M. S. Ossowscy

JĘZYK (nauka o nauce)

Nauka Nowożytna wiek przełom XVI / XVII

Galileusz, F.Bacon „Nowm Organum” Loke, Hume, Kartezjusz podstawy poznania, Kant

Epistemologia teoria poznania Neuton

Wartościowanie Nauki

1 Pozytywizm XIX połowie wieku (filozofie Comte, Mill

Socjologia

2 Empiriokrytycyzm E.Mach

3 Neopozytywizm (Koło Wiedeńskie Koło VIED)

jej zawdzięczamy powstanie współczesnej Metodologii

1 Pozytywizm XIX połowie wieku (filozofie Comte, Mill

2 Empiriokrytycyzm E.Mach

3 Neopozytywizm (Koło Wiedeńskie Koło VIED) jej zawdzięczamy powstanie współczesnej Metodologii

FILOZOFIA NAUKI METODOLOGIA

Dwie dziedziny nakładają się

Cele nauki

Idea nauki

Wartości nauki

Metodologia

Przedmiotowy – (opisujący rzeczywistość dana nauka posługuje się nauką)

JĘZYK

Metajęzyk – (opisujemy język przedmiotowy)

metajęzyk (meta – + język) językozn., nauk. język, który służy do formułowania wypowiedzi na temat określonego języka przedmiotowego, np. język używany do opisu zjawisk językowych

Metajęzyk (angielskie metalanguage), język używany do opisu innego języka, operujący kategoriami gramatycznymi lub logicznymi (np. takimi jak rzeczownik i podmiot w opisie języków naturalnych lub instrukcja i wyrażenie w opisie języków sztucznych).

Celem metodologii – opis rzeczywistości

Metodologia Opisowa

Metodologia Normatywna

Nauką jest to, co w danej epoce społeczność uczonych zdefiniuje jako naukowe / naukę

NAUKA – SPEŁNIA PEWNE CELE (FUNKCJE)

FUNKCJE NAUKI Zadaniem nauki

Poznanie świata

Funkcje nauki

1 Poznawcze:

a] DEKRYTYWNA (opisowa)

b] EKSPLANCYJNA (wyjaśniająca) najważniejsza

c] PROGNOSTYCZNA (przewidystyczna)

2 Pozapoznawcze:

a] PRAGMATYCZNA (zastosowanie techniczna)

b] IDEOLOGICZNA (uzasadnianie poznanaukowych systemów w oparciu o autorytet nauki)

EKSPLANACYJNA

NAUKA

FORMALNA EMPIRYCZNA

(liczby, symbole, abstrakcyjne jednostki, matematyka logika formalna,IT technika informatyczna formalne językoznawstwo) HUMANISTYCZNE PRZYRODNICZE

(o świecie człowieka

i jego idee)

METODOLOGIA NAUK EMPIRYCZNYCH

Nauka formalna narzędziem dla nauk empirycznych do opisu rzeczywistości

Nauki empiryczne mają nam pokazać wyjaśnić DLACZEGO?

Pojęcie: PRZYCZYNA

Wyjaśnienie – Typy przyczyn

[wg ARYSTOTELESA „Analityki wtórne”]

1 PRZYCZYNA FORMALNA

schemat pewnego procesu, podanie warunków, w jakich zachodzi (np.: w jakich okolicznościach kameleon zmienia barwę skóry)

2 MATERIALNE

fizyczne podstawy procesu (np.: substancji chemiczne powodujące zmianą barwy)

3 SPRAWCZE

zdarzenie wywołujące zjawisko (np.: skok kameleona na gałąź o innej barwie)

4 CELOWE (TELEOLOGICZNE)

cel (telos) który uzasadnia wyjaśnienie zjawiska („po co?”), np.: uniknięcie pożarcia przez drapieżnika poprzez zamaskowanie.

TYPY WYJAŚNIEŃ W NAUCE

[ wg Ernesta Nagel „Struktura Nauki”]

1 DEDUKCYJNE

Wniosek (q) jest konieczną logiczną konsekwencją przesłanek (p). Implikacja p q

jeżeli zdarzy się p, to nastąpi q

2 PROBABILISTYCZNE

Założenie statystycznego charakteru zjawiska – przesłanki czyni ą wniosek bardziej prawdopodobnym

p ? 1

p ? ? ? q

nie jesteśmy pewni czy nastąpi q

3 FUNKCJONALNE (TELEOLOGICZNE)

Przesłanki stwierdzające, jaką rolę („funkcję”) element pełni całości systemowej

4 GENETYCZNE (HISTORYCZNE)

Podane szeregu zdarzeń poprzedzających wyjaśniany fakt, które przyczyniły się do jego wystąpienia

DLA CZEGO?

PRAWA NAUKI

Czym jest prawo nauki?

Każde zadanie twierdzące ogólne (występują terminy uniwersalne ogólne)

PRAWA NAUKI ?? ZDANIA O ZDARZENIACH JEDNOSTKOWYCH

CELEM NAUKI EMPIRYZCZNYCH jest sformułowanie praw nauki

PRAWA NAUKI ? to TEROIA NAUKOWA

STRUKTURA TEORII NAUKOWEJ

[ wg Ernesta Nagel „Struktura Nauki”]

1 Język – rachunek abstrakcyjny

? Terminy deskryptywne (pierwotne i zdefiniowane);

? Twierdzenia (aksjomaty i teorematy);

Twierdzenia możemy udowodnić

które przyjmujemy

bez dowodu

na wiarę

? Reguły syntaktyczne (logiczne, matematyczne, gramatyczne…)

2 Reguły korespondencji – powiązanie teorii ze światem empirycznym – operacjonalizacja terminów nieobserwalnych

Modele – INTERPRETACJA – MATERIAŁ WYOBRAŻENIOWY

FUNKCJE MODELU TEORETYCZNE

teorie często zawierają odniesienie do MODELU – METAFORY

Model teoretyczny jest prawie zawsze nie doskonały

Analogia – podobieństwo,

— Umożliwia to lepsze zrozumienie (odwołanie do zjawiska lepiej znanych);

— Oparty jest na ANALOGII – zestawienie ze zjawiskami innego porządku;

— Uwypukla wybrane aspekty badanej rzeczywistości;

— Choć ma charakter nie pełny, posiada nadwyżkę treści (redundancja);

— Nie jest ani wierną kopią rzeczywistości (realizm naiwny), ani czystą fikcją, podporą umysłu (instrumentalizm), lecz częściowo adekwatnym odwzorowaniem rzeczywistości (realizm krytyczny)

Realizm naiwny ? modele są dosłownie prawdziwe

Realizm krytyczny – teorie są fikcja nie odnoszą

PRZYKŁADY MODELI TEORETYCZNYCH,

— FIZYKA : planetarny model atomu (Niels Bohr),

— FIZYKA: gaz jako zbiór cząstek zachowujących się jak kuleczki (kinetyka teoria gazów);

— SOSCJOLOGIA: – społeczeństwo jako organizm (organicyzm i funkcjonalizm),

— SOCJOLOGIA: rozwój społeczeństw zgodnie z ogólnymi prawami rozwoju w przyrodzie (ewolucjonizm H.Spencera),

— SOCJOLOGIA: życie społeczne jako scena teatru (E.Goffman),

— SOCJOLOGIA: społeczeństwo jako wolny rynek (teoria wymiany np. Homans, Blau)

Funkcjonalizm, w socjologii i etnografii, kierunek powstały w opozycji do ewolucjonizmu na początku XX w., dążący do wyjaśniania zjawisk, faktów i procesów społecznych poprzez funkcje jakie spełniają w kulturze danego społeczeństwa. Twórcą kierunku był B. Malinowski.

REDUKCI TEORII

1 REDUKCI TEORII,

— Wyjaśnienie niektórych praw nauki wtórnej (NW) poprzez prawa nauki pierwotnej (NP.);

— Terminy deskryptywne nauki pierwotnej i wtórnej wiążą Reguły Redukcyjną Opowiedniości (RPO),

— Schemat wnioskowania: (TWIERDZENIA np. : RPO) PRAWO NAUKI

Wykład II dnia 28.11.03 Metodologia

Jak sprawdzić Prawomocność Teorii?

1. Stanowisko „Koła Wiedeńskiego – WERYFIKACJONIZM”

— Kryterium Demokracji;

— Oddzielenie nauk empirycznym od nienaukowych system wiedzy;

— Sens w nauce mają wyłącznie zadania odnoszące się bezpośrednio do doświadczenia (zdania protokolarne) lub dające się do nich sprawdzić;

— Kryterium demokracji jest WERYFIKOWALNOŚĆ TEORII czyli możliwość wykazania, czy jest ona prawdziwa czy fałszywa,

— Schemat weryfikacji

[(t ? p) ? p] ? t

jest zawodny!!!

i wymaga przyjęcia INDUKCJI, bo:

p – wynika doświadczeniu jest zdaniem o zdarzeniu

t – jest prawem nauki, czyli zdaniem ogólnym.

2. Stanowisko K.R. POPPERA

FALSYFIKACJONIZM

? MODEL HIPOTETYCZNO-DEDUKCYJNY,

— Choć nie potrafimy empirycznie stwierdzić prawdziwości teorii (jako zdanie ogólnego), możemy stwierdzić jej FAŁSZYWOŚĆ;

— Naukowcy mają z teorii DEDUKCYJNIE wyprowadzać przewidywania odnoszące się do wyników doświadczenia (zdanie bazowe);

— Jeśli wynik eksperymentu jest:

? Zgodny z teorią – przyjmujemy tymczasowo teorią tak jakby była prawdziwa aż do czasu, gdy dalsze doświadczenia ja obalą, pozostaje ona HIPOTEZĄ;

? Sprzeczny z teorią – odrzucamy teorie, ponieważ jest fałszywa,

— Kryterium demarkacji jest FALSYFIKOWALNOŚĆ TEORII czyli podatność na stwierdzenie, czy jest ona fałszywa,

— Schemat falsyfikacji

[(t ? p) ?? p] ? ?t

jest poprawny!!!

i opiera się na DEDUKCJI.

Dedukcja <łac. deductio = wyprowadzenie>, 1. filoz. a) rozumowanie polegające na wyprowadzeniu z pewnych zdań (prawdziwych przesłanek) wynikającego z nich logicznie następstwa (prawdziwego wniosku). b) rozumowanie polegające na dobieraniu następstwa do danej racji logicznej. c) rozumowanie polegające na uzasadnieniu następstwa za pomocą prawdziwej racji logicznej. d) dawniej: wyprowadzenie sądów szczegółowych z sądów ogólnych, przechodzenie od ogółu do szczegółu; przeciwieństwo indukcji. 2. daw. rozumowanie, myślenie; wywód.

Indukcjonizm, w metodologii – stanowisko, zgodnie z którym rzeczywistą wartość poznawczą mają tylko twierdzenia ogólne sformułowane drogą indukcji, na podstawie obserwacji jednostkowych faktów, opisywanych przez tzw. zdania spostrzeżeniowe. Przeciwieństwo dedukcjonizmu.

Falsyfikowalność – jako metoda demarkacji nauki

Pozytywiści logiczni jako kryterium rozróżnienia poglądów naukowych od nie-naukowych przyjęli zasadę weryfikowalności teorii. Upraszczając, jeśli jakaś teoria ma potwierdzenie w faktach, to jest prawdziwa, a jeśli nie, to jest fałszywa. Zdaniem pozytywistów, teorie naukowe raz zweryfikowane będą już zawsze prawdziwe. Popper nie zgodził się z tym poglądem, twierdząc, że ostateczne zweryfikowanie teorii faktami nie jest nigdy możliwe. Nawet jeśli będziemy mieli zbiór miliona faktów potwierdzających daną teorię, może się w każdej chwili zdarzyć, że ktoś zarejestruje fakt nr. milion jeden, który nie będzie z teorią zgodny.

Falsyfikowalność teorii polega na tym, że jej struktura jest taka, że można zaproponować eksperyment, którego wynik jednoznacznie zaprzeczy słuszności teorii. Eksperyment ten nie musi być koniecznie technicznie wykonalny w danym momencie – ważne jest tylko, że dana teoria w ogóle dopuszcza możliwość obalenia siebie samej w wyniku jakiegoś, dającego się pomyśleć, eksperymentu.

Powoduje ono, że żadna teoria naukowa nigdy nie może być uznana za 100% pewną – każda pozostaje więc tylko bardziej lub mniej prawdopodobną hipotezą. Dla Poppera sama struktura logiczna teorii nie była tak ważna jak dla pozytywistów logicznych – nie musiała być matematyczna, do końca spójna wewnętrznie, ani być wolna od założeń metafizycznych. Popper wskazywał, że wiele teorii fizycznych, wbrew poglądom pozytywistów, zawiera w sobie silne założenia metafizyczne, (np. continuum czasoprzestrzeni, niezniszczalność ogólnego bilansu masy i energii, czy założenie racjonalnej struktury materii). Ważne tylko, żeby teoria dawała się falsyfikować. Jak pisał sam Popper „Teoria naukowa jest jak słup wbity w ruchomy piasek, na którym buduje się całą konstrukcję, gdy słup zgnije albo się zawali pod naporem faktów, trzeba go zastąpić nowym”.

Wykład II dnia 12.12.03 Metodologia Wiedza Naukowa będzie hipotetyczna

Model HIPOTETYCZNO-DEDUKCYJNY

Indukcja

Koncepcja Poppera

KONTEKSTY ODKRYCIA I UZASADNIENIA

1. Jak sprawdzamy teorię

Kontekst uzasadniania:

— dedukcyjnie (wnioskowanie logiczne w oparciu o aksjomaty i dowiedzione teorematy,

— empiryczne (testując przewidywania wyników obserwacji i doświadczeń wydedukowane z teorii)

2.Jak dochodzimy do teorii

Kontekst odkrywania:

— dedukcyjne (w oparciu o wnioskowanie logiczne),

— indukcyjne (uogólnieni zdarzeń jednostkowych),

— HEURYSTYCZNIE (dowolnie, bez ścisłych reguł, metodą skojarzeń analogii)

heurystyczne

FAZY ROZWIĄZANIA PROBLEMU NAUKOWEGO

1 PRZYGOTOWANIE

Po próbach rozwiązania tradycyjnymi sposobami, często problem wydają się na tym etapie nie rozwiązywany

2 INKUBACJA

Podświadomy proces dochodzenia do rozwiązania, generowanie pomysłów,

3 ILUMINACJA

Nagłe „olśnienie”, czasami wywołane przez pozornie całkowicie nieistotny czynnik (np. złudzenie, sen, skojarzenie itp.)

Np.: A.Kekule C6H6

4 UZASADNIENIE

Podanie logicznego dowodu weryfikacji zgodność hipotezy faktami. Nadaje odkryciu taką strukturę jaką poznajemy w publikacjach i podręcznikach

PARADYGMATY – KONCEPCJA METODOLOGICZNE

Wg. T.S.Kuhn: „Struktura rewolucji naukowych”

Jest to uznane prze społeczność uczonych dzieło stanowiące wzorcową podstawę praktyki naukowej w danej epoce, które jest:

— na tyle ORYGINALNE I ATRAKCYJNE by umożliwić powstanie szkoły myślenia zdolnej wyprzeć dotychczasowe sposoby uprawiania nauki,

— na tyle OTWARTE aby pozostawić nowej szkole rozmaite problemy do rozwiązania

Przykład

Ptolemeusz „ALMAGEST”

Kopernik „De revolutionibus”

Newton „Principia Mathematica”

Darwin „O pochodzeniu człowieka”

Akceptacja społeczności uczonych decyduje o istnieniu paradygmatu

Anomalie empiryczne

Rewolucja naukowa muszą zaistnieć pęknięcia w paradygmacie i istnienie nowej teorii aktualnej

FAZY ROZWOJU NAUKI wg Kuhna

(przyrodniczych)

1 Okres PRZEDPARADYGMATYCZNY – wielość poglądów i sposobów wyjaśnień, chaos, brak obowiązującej teorii.

2 Wyłonienie się paradygmatu powszechnie akceptowanej teorii i metody, które stanowią wzorzec dla dalszych dociekań.

3 Nauka normalna – okres stabilnej kumulacji wyników uzyskanych w oparciu o paradygmat. „rozwiązywanie łamigłówek”.

4 Pojawienie się anomalii – faktów niezgodnych z teorią paradygmatyczną.

5 Próby ratowania obiegowej teorii np. ignorowanie danych, hipotezy ad hoc.

6 Rewolucja w nauce – pojawienie się konkurencyjnego paradygmatu/ów.

7 Zwycięstwo jednej z teorii – nowy paradygmat i nowa faza nauki normalnej

PARADYGMAT – KONSEKWENCJE

? Stworzenie obowiązującego wzorca uprawiania danej dziedziny nauki; określa on zakres prawomocnych problemów i metod badań;

— upadek dotychczasowych szkół;

? odrzucenie alternatywnych teorii uznanych za sfalsyfikowane;

— wytworzenie nowego sposobu widzenia świata;

? uniformizm myślowy – elementy dogmatyzmu

? stworzenie REGUŁ GRY,

— założenia quasi – metafizyczne,

— podstawowe nadrzędne prawa i pojęcia,

— założenia wartościujące (etyczne),

— techniki i instrumenty badawcze,

— reguły prawomocność i uzasadniania sądów

WIELOPARADYGMATCZNE

dopuszczamy możliwość że nauki społeczne są wieloparadygmatyczne

?PARADYGMATY I TEORIE W NAUKACH SPOŁECZNYCH

1 Dzieło paradygmatyczne zwykle zawiera teorię i stymuluje dalsze dociekanie teoretyczne

2 Teoria w naukach przyrodniczych musi spełnić kryteria metodologicznej poprawności i jest poddawana procedurze empirycznej falsyfikacji

3„Teorie” w naukach społecznych nie spełniają w/w warunków (2) – są to zbiory wszelkich stwierdzeń nie będących o faktach empirycznych

4 Koegzystencje wielu paradygmatów

5 Brak konkluzywnych kryteriów akceptacji – odrzucenia

6 Inkorporacja elementów dawnych koncepcji (nowy termin – stare pojęcia)

SPECYFIKA NAUK SPOŁECZNYCH

1 Podwójna metryka współczesnej socjologii

? TRADYCJA POZYTYWISTYCZNA:

a.Come, E.Durkeim, amerykańska socjologia ilościowa

? Pojęcie „faktu społecznego”, który należy badać „jak rzeczy” [Durkeim]

? Założenie istnienia praw rządzących zachowaniem społecznym (socjologia jaki nauka NOMOTETYCZNA)

nauka idiograficzna (historia, geografia)

? Założenia statystyczne charakteru zjawisk społecznych

? Przyjęcie dla badań społeczeństwa metodologicznego wzorca nauk przyrodniczych

? TRADYCJA HUMANISTYCZNA:

? Przełom antypozytywistyczny:

Nauki przyrodnicze vs. Nauki o kulturze (humanistyczne) : Wilhem Dilthey

? Nauki nomotetyczne (uogólniające) vs. nauki idiograficzne (historyczno-indywidualizujące)

O kulturze : H.Rickert (1915)

SPECYFIKA NAUK SPOŁECZNYCH”

SOCJOLOGIA HUMANISTYCZNA

2. Podstawowe koncepcja

? Max Weber – socjologia „rozumująca”

? Rzeczywistość społeczna ma charakter „znaczący”

? Sens (np. działaniom) nadaje system „idei wartość”

? Zadaniem badacza jest odsłonięcie owych idei wartości = rozumienie (interpretacja humanistyczna)

? Narzędziem systematyzacji są TYPY IDEALNE – analogiczne do praw przyrody – fikcyjne idealizacje kategorii zjawisk społecznych (zamiast praw przyrody formujemy prawa TYPY IDEALNE)

? FLORIAN ZANNIECKI – współczynnik humanistyczny

? Fakty społeczne są „czyjeś” tj. posiadają znaczenie nadane im przez ludzi.

? Postulat badania rzeczywistości społecznej przez pryzmat świadomości uczestników danej zbiorowości kulturowej – odniesienie (relaktywizacja) do ich wartość i przekonań ma charakter „znaczący”

? CLIFFORD GEERTZ „gęsty opis” w antropologii

? Kultury – społeczeństwa są systemami semiotycznymi (charakter „zanczący”

? Opis faktu kulturowego ma być zapisem zdarzeń: kontaktu badaczem z elementem kultury, zawierający interpretacją kontekstu zdarzeniem

PARADYGMATY WSPÓŁCZESNEJ SOCJOLOGII

1. Paradygmat „faktu społecznego” [założenia pozytywistyczne]

— funkcjonalizm,

— teoria konfliktu,

— teoria wymiany społecznej,

— strukturalizm,

— teoria wyboru racjonalnego,

— empiryczne badania ilościowe (socjologia stosowana)

2. Paradygmat „sytuacji społecznej”

— interakcjonizm symboliczny,

— etnometodologia,

— socjologia fenomenologia,

— perspektywa dramaturgiczna,

— postmodernizm

6. Sposoby definiowania pojęć.

— klasyczny – wyliczanie cech danego zjawiska np. krzesło to przedmiot do siedzenia

— kontekstowy – wprowadzenie czegoś dodatkowego do opisania definicji np. władza, społeczeństwo. Opisujemy poprzez pokazanie tła a nie wprost.

— …

7. Definicje częściowe, ich walory i zastosowanie.

Definicje częściowe – to te, które nie podają warunków częściowych lub końcowych do opisania. Najczęściej podają jedynie warunek konieczny.W niej dopuszcza się możliwość sformułowania innych równoległych definicji-ale one nie są warunkiem koniecznym.

Zaleta: podanie def. częściowej może być łatwiejsze niż równościowej.

Zastosowanie:

1 – Zakres pojęcia wyznaczany przez def. częściową może ale nie musi zawierać się w zakresie terminu wyznaczanego przez treść charakterystyczną bądź konstruktywną pojęcia.

2 – Dwie def. Częściowe mogą mieć część wspólną ale mają też i część odrębną. Relacja łączności i rozłączności.

3 – Zakres jednej def. Częściowej zawiera się w drugiej def. Częściowej. Zasada korespondencji wyjaśniającej.

— Warunek konieczny zdania to: Z1 Z2 tzn. Z1 jest konieczny do Z2 gdy Z2 musi zajść a nie może nie zajść.

— Warunek wystarczający zdania to: Z1 Z2 tnz. Z1 jest konieczny do Z2 gdy Z1 musi zajęć a Z2 nie musi zajść.

8. Rodzaje zmiennych.

— ze względu na charakter zmiennych,

— jakościowe – tu pytanie o intensywność nie jest konieczne, różne cech nie mogą być rozpatrywane w kategorii typowej tylko rodzajowej, np. Gdzie się mieszka? Miasto lub wieś,

— ilościowe – te które da się zliczyć lub typowo określić, np. wiek lub płeć

— ze względu na sposób uporządkowania zmiennych,

— nominalne – pozwalają stwierdzić, które przedmioty są równe a które różne pod każdym względem,

— porządkowe – pozwalają powiedzieć czy 2 przedmioty posiadają daną własność w stopniu równym czy nie. Zarazem nie pozwalają wykazać różnicy w dystansie dzielącym oba przedmioty,

— interwałowe – o ile porównywalnych jednostek pomiaru ktoś ma daną cechę w stopniu równym lub różnym od innej.Nie można stwierdzić o ile dany obiekt ma więcej lub mniej tych jednostek,

— ilorazowe – takie, które przy zachowaniu równych przedziałów wprowadzają dokładny a nie umowny punkt zerowy. Można stwierdzić różnice dokładne między jednostkami danego obiektu, tzn. można policzyć, o ile ktoś zarabia więcej od drugiej osoby. Nie można jednak zrobić tego na odwrót czyli liczyć ile razy.

9. Klasyfikacja i typologia jako narzędzie naukowe.

Schemat klasyfikacji to zmienne i ich własności.

Dwie zasady których nie wolno naruszać przy klasyfikowaniu danych:

1 – warunek zupełności – klasyfikacja musi być wyczerpująca tzn. wszystko musi być gdzieś uporządkowane.Jedna zmienna może należeć do kilku „szuflad”.

2 – warunek rozłączności – klasyfikujemy wymóg tylko w jednej „szufladzie”.Nie mogą pozostać obiekty, które nigdzie nie są sklasyfikowane.

Gdy liczba klas jest zbyt duża trzeba wprowadzić:

— klasyfikację wielostopniową – dzielimy klasy niższego rzędu i wyższego następnie te niższego klasyfikujemy do wyższego. Tylko pod względem różnicy pod jednym względem

— klasyfikację wielowymiarową – dzieli obiekty, które różnią się między sobą pod wieloma względami naraz.Wtedy każdy z tych wymiarów traktowany jest jako osobna zmienna.

Typologia – wyniki zredukowania klasyfikacji.Ona redukuje liczbę klas na mniejszą.

Typ – uznana za bardziej istotną od innych wartości danej zmiennej lub szczególny układ zmiennych.

Typologii używa się wtedy, gdy wybiera się typy bez zastanowienia nad ich zastosowaniem.

10. Co nazywamy wskaźnikiem w naukach społecznych i rodzaje.

Wskaźnik – cecha przedmiotu lub zjawiska pozostająca w związkach z inną cechą tego przedmiotu lub zjawiska, tak że wystąpienie tej pierwszej sygnalizuje obecność tej drugiej. To coś, po czym można poznać, że zaszło coś innego.

Na wskaźniki w badanym społeczeństwie składają się zjawiska, stany, rzeczy i zachowania łatwe do zaobserwowania, oraz takie w których właściwa reakcja rozumiejąca jest stosunkowo niezawodna

Rodzaje wskaźników:

— definicyjne – to takie sytuacje gdzie między zjawiskiem a indykatem zachodzi relacja.Nazwy starych odpowiedników definiują nowe. Np. wskaźnik wykształcenia będziemy def. Pod względem ilości lat ukończonych w szkołach,

— rzeczowe – takie gdy związek między zjawiskiem a indykatem nie jest zagwarantowany przez związek między nimi. W nich są:

— empiryczne – wskaźnik i indykatum maja charakter zjawisk obserwowalnych.Wskaźnik jest inny niż indykatum i oznaczone przez różne terminy oraz połączone zależnością empiryczną. Np. jeżeli przyjmiemy liczbę spóźnień jako wskaźnik rzeczowy, empiryczny to indykatum może być niewydolność komunikacyjna,

— inferencyjny – ze stwierdzenia występowania wskaźnika wnoskujemy, że zaszło jakieś zdarzenie bezpośrednio nie obserwowane. Pozwala na wnioskowanie na podstawie symptomów-objawów. Np. na podstawie pewnych oznak w zachowaniu czy dana osoba kłamie (nie patrzy w oczy).

Wskaźniki mogą być od razu definicyjne, rzeczowe empiryczne i rzeczowe inferencyjne np. test IQ

11 Wskaźniki dzielimy na:

1. W. definicyjne

2. W. empiryczne

3. W. inferencyjne

Ad.1 Wskaźniki definicyjne wskazują na rodzaj powiązania wskaźnika z wartością wskazywaną. Za ich pomocą definiowana jest cecha mająca być przedmiotem badania. Dobór wskaźnika do określonego zjawiska polega na uprzednim zdefiniowaniu pojęcia tego zjawiska, które wskaźnik ma wyrażać.

Ad. 2 Wskaźniki empiryczne są wtedy, gdy zarówno cecha wskazywana jak i wskaźnik dają się zaobserwować. Tym samym relacja zachodząca między wskaźnikiem a cechą wskazywaną ma charakter związku empirycznego, rozstrzygalnego bezpośrednio na podstawie dokonanych obserwacji.

Ad. 3 O wskaźniku inferencyjnym mówimy wtedy, gdy wskaźnik nie definiuje zjawiska wskaźnikowego i nie jest ono obserwowalne. O wystąpieniu danego zjawiska wnioskujemy w sposób pośredni, tzn., że dane zjawisko zaszło, choć ma ono charakter właściwości ukrytej. Np. występowanie podczas egzaminu wypieków na twarzy można przyjąć za wskaźnik inferencyjny stanu zdenerwowania studenta.

W badaniach pedagogicznych nie zawsze można posługiwać się jednym „czystym” wskaźnikiem. Niekiedy zachodzi potrzeba wykorzystania w badaniach innych wskaźników. Zależy to od rodzaju podjętej problematyki badawczej, przedmiotu badań jak i złożoności i umiejętności doboru wskaźników. Wtedy zachodzi potrzeba jednoczesnego wykorzystania wszystkich trzech uprzednio scharakteryzowanych wskaźników lub ich kombinacji. Wskaźniki te można podzielić na:

1. Wskaźniki definicyjno-empiryczne

2. Wskaźniki inferencyjno-definicyjne

3. Wskaźniki empiryczno-inferencyjne

4. Wskaźniki empiryczno-definicyjno-inferencyjne

Wskazując na możliwość wykorzystania w badaniach różnych wskaźników, należy podkreślić, że trafność ich doboru uzależniona jest od znajomości związków łączących wskaźniki ze zjawiskami wskazywanymi.

12 Prawa nauki i generalizacje historyczne

Prawa nauki – są to twierdzenia które powinny realizować następujące wymogi:

1. być ściśle ogólne ni powinny być równoważne skończonej liczbie zdań atomowych lub podstawowych

2. zawsze muszą być epistemologicznie otwarte

3. przeważnie są ontologicznie otwarte

4. poprzednik twierdzenia powinien formułować w terminach ogólnych warunki spełnienia następnika bez podawania obszaru czasoprzestrzennego czasoprzestrzennego którym owe warunki zachodzą

5. spełnia funkcje:

a. opisu zjawisk, cech, zdarzeń, relacji

b. wyjaśniania zjawisk,cech,zdarzeń, relacji

c. przewidywania zjawisk, cech, zdarzeń relacji

Generalizacje historyczne – są to twierdzenia:

1. przeważnie numerycznie ogólne, równoważne skończonej klasie zdań jednostkowych,

2. zazwyczaj epistemologicznie otwarte

3. przeważnie ontologicznie zamknięte

4. których poprzednik jako warunki podaje obszar czasoprzestrzenny spełnienia następnika lecz nie są to warunki wystarczające

warunki te służą głównie opisowi i wyjaśnianiu, a przewidywanie dotyczy raczej zjawisk przeszłych

13 twierdzenia tautologiczne i eliptyczne

Tw. eliptyczne – nie wiadomo, czy sa zdaniami ogolnymi czy szczegolowymi, treść nie zawiera zadnych wskazoek, nie jest jednoznacznie określona.Tworzenie tych zdań jest rzeca niewlasciwa trzeba je przeksztalcic w:

— uniwersalne prawa nauki, dodając uniwersalną kwantyfikację, określającą, czy jest ogólnym prawem nauki czy statystycznym,

— na ogólne prawa nauki, podając ich zakres, zastosować w jakich warunkach jest ono prawdziwe,

— w generalizację historyczną, precyzując, w ramach jakiego społeczeństwa, epoki kultury jest ono prawdziwe,

— w zdanie szczegółowe, stwierdzając, że w kilku przypadkach jest jak ono głosi.

Tw. tautologiczne

Zdania, które są prawdziwe dzięki zagwarantowanym terminom użytym najczęściej w logice, matematyce, niczego nie wyjaśniają, dają pozór wyjaśnienia. Uniknięcie tautologii polega na tym, by nie przypisywać w stwierdzeniu dyspozycji, opisać te zachowania, które mają dopiero zastać wyjaśnione, poprzednik i następnik nie mogą być takie same.

— tautologie częściowe – okoliczności, iż terminy użyte w poprzedniku stwierdzeń mają elementy wspólne z tym, co jest użyte w następniku.

14 problem badawczy, hipoteza, operacjonalizacja

— problem badawczy – rodzaj zadania (sytuacji), którego podmiot nie może rozwiązać za pomocą posiadanego zasobu wiedzy. Jego rozwiązanie jest możliwe dzięki czynności myślenia produktywnego, które prowadzi do wzbogacenia wiedzy przedmiotu. Problem badawczy to tyle, co pewne pytanie lub zespół pytań, na które odpowiedzi ma dostarczyć badanie.

— Hipoteza jest najczęściej wyjaśniana jako propozycja twierdzenia naukowego. Jest propozycją odpowiedzi na pytania zawarte w problematyce badawczej. Najczęściej źródłami hipotez są : 1) wyniki teoretycznych rozważań; 2) dotychczasowe badania z tego zakresu; 3) inwencja twórcza i pomysłowość badacza. Hipotezy badawcze powinny spełniać następujące wymogi:

— odnosić się jednoznacznie do problematyki, tzn. dostarczać propozycji odpowiedzi na pytania wynikające z problemów,

— posiadać uzasadnienie, które jest najczęściej odwołaniem się do wiedzy teoretycznej lub empirycznej z zakresu danej problematyki. Często wystarczającym uzasadnieniem hipotezy jest podanie jej źródła,

— posiadać warunki sprawdzalności. Dlatego należy stwierdzić, czy hipoteza jest propozycją twierdzenia a) jednostkowego bądź ogólnego; b) bezwyjątkowego lub probabilistycznego; c) szczegółowego lub uniwersalnego.

— Operacjonalizacja celów szczegółowych to formułowanie ich w postaci obserwowanych zmian i mierzalnych zachowań. Cel operacyjny to jasno wyrażone zamierzone osiągnięcie badacza. W toku operacjonalizacji cel ogólny ulega: sprecyzowaniu, uszczegółowieniu, konkretyzacji, odarciu z otoczki emocjonalnej, upodmiotowieniu.operacjonalizacja – wyrażenie pojęć i terminów teoretycznych w kategoriach operacyjnych (jednoznaczne terminy), dobór wskaźników, zbiorowości do badań – kategorii społecznej, metod i technik, źródła badań;

15 schemat nomologiczno-dedukcyjny

Poprzednik jest warunkiem niezbednym do wystapienia nastepnika.danie ogóle jest na ogół zdaniem przyczynowym jesli wystapi to nastepuje nastepnik.Wyjasnienie przyczynowe powinno uwzgledniac czasowo przestrzenne ramy od przyczyn do skutkow.

1. CHARAKTERYSTYKA POJĘCIA NAUKI:

Nauka potocznie to ludzka wiedza o przyrodzie, człowieku, społeczeństwie, społeczeństwie zjawiskach i prawidłowościach rozwoju rzeczywistości, o sposobach badania i przekształcania otaczającego nas świata, ujęta w systemie należycie uzasadnionych twierdzeń i hipotez.

Nauka to usystematyzowana wiedza przedstawiona w formie twierdzeń. Jest ona dziedziną społecznej aktywności człowieka, która zmierza do obiektywnego poznania rzeczywistości. Jest procesem społecznym w wyniku którego powstają konstrukcje naukowe czyli twierdzenia, teorie, prawa.

2. ETAPY PROCESU NAUKOWEGO POZNANIA:

1. Gromadzenie spostrzeżeń (obserwacja)

2. Rejestracja wyników obserwacji

3. Uogólnienie rezultatów obserwacji (ustalenie związków i zależności między faktami bądź zjawiskami oraz ich wyjaśnianie w postaci hipotez badawczych)

4. Weryfikacja hipotez czyli ich sprawdzenie i sformułowanie twierdzeń o charakterze empirycznych praw.

3. PODZIAŁ NAUK:

podział nauk ze względu na:

I. Rodzaj badań:

a. nauki empiryczne – doświadczalnie poznają rzeczywistość, a swoje prawa i prawidłowości weryfikują w praktyce.

b. nauki formalne (matematyka, logika, informatyka, hibernetyka) to nauki, które nie opierają się na doświadczeniu ale na tzw. aksjomatach czyli twierdzeniach pierwotnych, które nie wymagają uzasadnienia,

II. Przedmiot badań:

a. nauki przyrodnicze – przedmiotem ich badań jest medycyna oraz wszelkie nauki związane z poznaniem biologicznej struktury człowieka.

b. nauki społeczne – przedmiotem ich badań jest człowiek z punktu widzenia własnego wnętrza, którym zajmują się filozofia, etyka. Celem badań społecznych jest poznanie rzeczywistości społecznej i wszelkich procesów nią rządzących.

4. W OPARCIU O PYTANIA A. COMTE`A UDOWODNIĆ, ŻE PEDAGOGIKA JEST NAUKĄ.

Angielski filozof August Comte w XIX w. w swoim dziele pt. „Kurs filozofii pozytywnej” wprowadził po raz pierwszy pojęcie „socjologia” dla określenia nauki o społeczeństwie. Comte`a nazywa się ojcem socjologii. Stworzył przy tym po raz pierwszy kryteria naukowości. Jego zdaniem, by odpowiedzieć na pytanie czy dana dziedzina wiedzy jest nauką, trzeba znaleźć odpowiedzi na 4 pytania:

1. Czy dana dyscyplina posiada własny przedmiot badań?

2. Jakie miejsce zajmuje w systemie nauk?

3. Czy posiada własny swoisty przedmiot badań?

4. Czy posiada swój warsztat metodologiczny?

Ad. 1. Posiada przedmiot badań. Pedagogika zajmuje się człowiekiem na różnych etapach jego życia i rozwoju – od urodzenia aż do śmierci; zajmuje się procesami edukacyjnymi czyli nauczaniem i wychowaniem.

Ad. 2. Jest nauką empiryczną i społeczną.

Ad. 3. Tak, posiada. Bada człowieka w aspekcie społecznym tj. bada jak jeden człowiek zmienia się pod wpływem drugiego człowieka.

Ad. 4. Tak, posiada. Do metod badań pedagogiki należą następujące metody: obserwacja pedagogiczna, eksperyment pedagogiczny, monografia pedagogiczna, analiza dokumentów i tworów ucznia.

Następcy Comte’a dodali jeszcze jedno pytanie: Czy dana dyscyplina ma swój własny system pojęć?

Odp. Tak, ma. Są to pojęcia: wychowanie, uczenie się, nauczanie, wykształcenie, osobowość, środowisko wychowawcze, kultura, czas wolny.

5. SPOŁECZNE FUNKCJE PEDAGOGIKI:

I. DIAGNOSTYCZNA (rozpoznawanie) – polega na gromadzeniu wiedzy o tym, co było lub co jest w obiektywnej rzeczywistości, polega na stwierdzeniu jej obiektywnego stanu.

II. PROGNOSTYCZNA – polega na określeniu na podstawie poznanych zjawisk przyszłego kierunku ich rozwoju.

III. INSTRUMENTALNO-TECHNICZNA – polega na dostarczaniu wiedzy o tym jak realizować zamierzone cele.

IV. HUMANISTYCZNA – umożliwia zaspokojenie potrzeb człowieka w dziedzinie jego dążeń do poznania obiektywnej rzeczywistości.

6. SCHARAKTERYZUJ PRZEDMIOT BADAŃ PEDAGOGIKI

Przedmiotem badań pedagogiki jest proces wychowania w różnych jego postaciach i formach. Proces celowo organizowanego wychowania dotyczy przede wszystkim dzieci i młodzieży, stąd wychowanie ich jest głównym zadaniem pedagogiki. Celowo organizowane wychowanie obejmuje także niektóre grupy ludzi dorosłych, tj. ANDRAGOGIKA – PEDAGOGIKA ludzi dorosłych lub ich oświata i GERONTOLOGIA – PEDAGOGIKA ludzi starszych.

Współczesny rozwój sił twórczych nauki, techniki, organizacji pracy wymaga od pedagogiki objęcia swoim zakresem całokształtu spraw związanych z wychowaniem człowieka.

Przedmiotem badań pedagogiki są nie tylko wpływy wychowawcze organizowane świadomie i celowo ale również wpływy niezamierzone i żywiołowe. Mówimy wtedy o procesie socjalizacji. Do zadań i zainteresowań pedagogiki należy także zjawisko funkcjonowania systemu szkolno – oświatowego.

Pedagogika nie tylko opisuje fakty, ale także je wyjaśnia i poszukuje odpowiedzi na pytania:

1. Jak i dlaczego przebiegają określone procesy wychowawcze?

2. Jak te procesy powinny być organizowane by były maksymalnie skuteczne?

7. OMÓWIĆ SUBDYSCYPLINY PEDAGOGIKI

1. PEDAGOGIKA OGÓLNA – zajmuje się charakterystyką pedagogiki jako nauki, analizuje podstawowe pojęcia pedagog., historyczne uwarunkowania rozwoju tej dyscypliny, bada czynniki wychowania (role i znaczenie środowiska w wychowaniu, znaczenie dziedziczności w tym procesie, odnosi się także do celów i zadań stawianych przed wychowaniem) zajmuje się również problematyką edukacji permanentnej inaczej kształceniem ustawicznym.

2. DYDAKTYKA – teoria kształcenia, zajmuje się istotą i przebiegiem procesów nauczania, analizuje także cele, treści, formy organizacyjne, zasady i metody nauczania; dzieli się na dydaktykę ogólną i dydaktyki szczegółowe, inaczej szczegółowe teorie nauczania – odnoszą się one tak do przedmiotów ogólnokształcących jak i zawodowych na poszczególnych etapach kształcenia.

3. TEORIA WYCHOWANIA – wyjaśnia zadania, treści, formy organizacyjne, zasady i metody wychowania moralnego. Wiele miejsca poświęca tą teorią wychowaniu w rodzinie w obszarze zajęć pozalekcyjnych i pozaszkolnych oraz pracy wychowawczej w dziecięcych i młodzieżowych organizacjach, np. metodyka w ZHP (analizuje pracę i metody ZHP – organizacji pozaszkolnej)

4. HISTORIA WYCHOWANIA – to nauka o metodach i formach, organizacji procesu wychowania, o ustrojach i systemach oświatowych w kontekście historycznym. Jest nauką o systemach oświatowych, o genezie i historii myśli pedagogicznej.

SCHEMAT STRUKTURY NAUK PEDAGOGICZNYCH:

8. NAUKI WSPÓŁPRACUJĄCE Z PEDAGOGIKĄ:

1. NAUKI PRZYRODNICZE – dyscypliny zajmujące się badaniem biologicznego aspektu rozwoju człowieka i badaniem biologicznych uwarunkowań procesów wychowania; do tej grupy nauk należą nauki medyczne tj. biomedyczne podstawy rozwoju i wychowania.

2. NAUKI PSYCHOLOGICZNE – psychologia ogólna i rozwojowa, zajmująca się badaniem funkcjonowania psychiki a zwłaszcza jej indywidualnego rozwoju.

3. NAUKI WYCHOWAWCZE – bada psychiczne uwarunkowania i skutki oddziaływań wychowawczych.

4. NAUKI SOCJOLOGICZNE – socjologia wychowania, pracy, zawodowa, kultury.

5. NAUKI EKONOMICZNE

6. NAUKI FILOZOFICZNE – etyka jako podstawowa nauka do podejmowania zagadnień z zakresu wychowania moralnego; estetyka – analizuje oddziaływanie sztuki na człowieka.

9. PODSTAWOWE POJĘCIA PEDAGOGIKI:

WYCHOWANIE – jest definiowane w znaczeniu szerokim i wąskim.

Znaczenie szerokie – to przygotowanie człowieka do zadań jakie stawia przed nim cywilizacja. Inne definicje określają wychowanie jako proces osiągania optymalnego rozwoju osobowości. Inne koncepcje określają wychowanie jako rodzaj ludzkiej działalności, która polega na wywoływaniu zmian osobowości. Ostatnie koncepcje uznają, iż wychowanie zawiera kształcenie i nauczanie.

Znaczenie wąskie – ogranicza się do wychowania moralnego i oznacza kształcenie uczuciowo emocjonalnej strony osobowości człowieka. Ogólnie ujmują wychowanie jako przygotowanie człowieka do życia w społeczeństwie i tak rozumiane wychowanie pełni dwie funkcje:

— funkcja zachowawcza, która polega na przekazywaniu tradycji, obyczajowości, wzorców określonych zachowań, charakterystycznej dla danej społeczności,

— funkcja twórcza – polega na kształtowaniu kreatywności jednostki we wszystkich sferach jej życia.

KSZTAŁCENIE to ogół czynności i procesów umożliwiających uzyskanie orientacji w otaczającej rzeczywistości przyrodniczej, społecznej, kulturowej; dzięki nim człowiek nabywa określony zasób wiedzy i umiejętności, nawyków, nawyków rezultatem kształcenia jest wykształcenie.

SAMOKSZTAŁCENIE jest to organizowanie wiedzy i sprawności bez pomocy nauczycieli. Instytucje powołane do organizowania kształcenia nazywamy systemem kształcenia. Z punktu widzenia przyswajanej wiedzy wyróżniamy:

· kształcenie ogólne

· kształcenie specjalistyczne tzw. zawodowe

Kształcenie pełni 2 funkcje:

1. Poznawcza – dostarczanie wiedzy o świecie

2. Praktyczna – zdobywanie umiejętności i nawyków, bowiem nawyk to efekt ostatecznego stadium kształcenia lub samokształcenia.

UCZENIE SIĘ to zamierzone zdobywanie i utrwalanie w pamięci wiadomości, sprawności i nawyków. Kierowanie tym procesem, planowa praca nauczyciela i ucznia nazywa się nauczaniem. Nieodzownym warunkiem procesu nauczania jest swiadome i aktywne współdziałanie nauczyciela i ucznia.

OSOBOWOŚĆ – punktu widzenia pedagogiki istnieją trzy koncepcje osobowości:

1. Koncepcja natywistyczna (natywizm to skrajna postać naturalizmu) – głosi, że czynniki wrodzone, instynkty, popędy warunkują osobowość człowieka. Zwolennicy tego kierunku twierdzą, że człowiek posiada osobowość zakodowaną w genach, a więc nikt ani nic nie jest w stanie jej zmienić.

2. Determinizm socjologiczny – zakłada, że o osobowości człowieka decyduje środowisko, w którym on żyje. A więc wpływy środowiskowe są głównym czynnikiem kształtowania osobowości.

3. Koncepcja konwergencji – łączy dwie poprzednie koncepcje. Uznaje, że o osobowości człowieka decydują zarówno czynniki wrodzone (wewnętrzne) jak i środowiskowe (zewnętrzne)

Literatura pedagogiczna wyróżnia dwa rodzaje definicji osobowości:

1. definicja typu szerokiego – określa osobowość jako zespół względnie stałych cech wzajemnie odróżniających jednostki. Takimi cechami są: budowa ciała, kolor oczu, charakter, zainteresowania, potrzeby, motywacje, poglądy, postawy, temperament, zdolności, inteligencja.

2. definicja typu wąskiego – określa osobowość jako złożoną strukturę cech fizycznych i psychicznych warunkujących względną całość i odmienność danej jednostki. Zespół tych cech reguluje jej zachowanie i przebieg procesów psychicznych.

Na rozwój osobowości decydujący wpływ ma okres dzieciństwa, ponieważ jest to czas największej podatności człowieka na wpływy wychowawcze.

10. METODY BADAŃ PEDAGOGICZNYCH:

EKSPERYMENT PEDAGOGICZNY „experimentum” – rozpoznawanie, doświadczanie. To metoda, której podstawową częścią jest wywołanie jakiegoś procesu lub regulowanie warunków na tenm proces, wpływających tak, by umożliwić jego dokładniejsze zbadanie (Wincenty Okoń)

Mieczysław Łobocki definiując eksperyment uważa, iż jest to obserwacja prowadzona w specjalnie zorganizowanych warunkach. Postawa eksperymentatora ma charakter interweniujący w badane zjawiska zaś postawa obserwatora jest bierna w stosunku do badanej rzeczywistości.

Władysław Zaczyński uważa, iż eksperyment jest metodą naukowego badania określonego wycinka rzeczywistości wychowawczej, polegającą na wywoływaniu lub tylko zmienianiu przebiegu procesów przez wprowadzenie do nich nowego czynnika i obserwowanie zmian powstałych pod jego wpływem.

Literatura przedmiotu wyróżnia najczęściej następujące rodzaje techniki:

1. Technika grup równoległych, która zakłada uwzględnienie dwojakiego rodzaju klas (równoległych i kontrolnych) określeniu czynników eksperymentu, uwzględnienie badań początkowych i końcowych.

2. Technika rotacji różni się od pierwszej tym, że wprowadza się rotację grup, czyli wymianę ich funkcji.

3. Technika jednej grupy – przy stosowaniu tej techniki nie przewiduje się grupy kontrolnej. Uznaje się ją za najmniej skuteczną w prowadzeniu badań eksperymentalnych.

Metoda eksperymentu powszechnie stosowana była w latach 70 i 80. Dziś mało aktywna z uwagi na zbyt duże możliwości manipulowania badanymi.

METODA MONOGRAFII PEDAGOGICZNEJ – służy ona opisowi różnego rodzaju instytucji edukacyjnych: np. szkoła, dom dziecka, pogotowie opiekuńcze. Charakteryzuje ją specyficzny przedmiot badań, konkretna placówka oraz sposób rozpoznawania struktury i działalności tej jednostki. Opracowanie monografii pedagogicznej daje się scharakteryzować w kilku punktach:

1. opis (zamieszczamy w nim rys historyczny placówki – od powstania do dnia dzisiejszego)

2. opisujemy warunki materialne i lokalowe placówki – obecnie, na dzień dzisiejszy (np. instytucje i firmy, które są ewentualnymi sponsorami)

3. dokładna charakterystyka personelu placówki (wszystkich, którzy pracują w placówce, czyli: kadrę pedagogiczną i kadrę obsługową), ich kompetencje, wykształcenie, staż pracy (zawsze zaczynamy od stanowiska najwyższego czyli dyrektora). Analizy w formie opisowej i w formie tabeli.

4. charakterystyka wychowanków, podopiecznych, klientów, tzn. środowisko wychowanków, liczbę dzieci z podziałem na płeć, typy zaburzeń, rotację czyli jak przedstawia się statystyka naboru wychowanków.

5. omawiamy specyfikę pracy, czyli formy i metody pracy w placówce.

6. mówimy o efektach pracy: współpraca z najbliższym środowiskiem czyli z rodziną, kuratorami, z poradniami psychologicznymi, ze sponsorami.

METODA INDYWIDUALNYCH PRZYPADKÓW pojawiła się na początku XX wieku w USA. Za jej twórcę uznaje się Mary Richmond. W 1917 r. ukazała się książka pt. „Diagnoza społeczna”, w której po raz pierwszy ogłoszono tą metodę. Jej klasyfikację Mary Richmond oparła na pojęciach medycznych.

1. Przyczyny typu charakterologicznego tkwiące w samym człowieku

2. Przyczyny typu społecznego, od człowieka niezależne

CASE WORK – metoda indywidualnych przypadków

CASE STADY – metoda dobrej diagnozy

Wyodrębniła w procesie tej metody kilka etapów:

1. Polega na przeprowadzeniu dokładnego rozpoznania, znalezienie powodów i przyczyn trudnej sytuacji człowieka

2. Polega na próbie znalezienia dróg wyjścia z tej sytuacji akceptowanego przez obydwie strony

3. konkretna praca z przypadkiem, polegająca głównie na czuwaniu nad realizacją ustalonego wspólnie planu działania.

Do rozwiązania problemu M.R. opracowała wykorzystanie trzech technik:

1. wywiad środowiskowy – polegał na dokładnym zabraniu informacji o podopiecznym i jego najbliższym środowisku

2. obserwacja – obejmuje nie tylko samego podopiecznego, ale również jego otoczenie

3. analiza dokumentów

Zasady praktycznego zastosowania tej metody:

1. zasada akceptacji

2. z. komunikacji

3. z. indywidualizacji

4. z. uczestnictwa

5. z. zaufania i poszanowania prywatności

6. z. samoświadomości

SONDAŻ DIAGNOSTYCZNY – to metoda charakterystyczna dla grupy nauk społecznych (psychologii, socjologii), w pedagogice obejmuje wszelkiego rodzaju zjawiska społeczne o znaczeniu istotnym dla procesu wychowania. Ponadto bada stan świadomości społecznej, opinii i poglądów określonych zbiorowości na problemy dotyczące przede wszystkim zjawisk edukacyjnych. Często nazywamy tę metodę SONDAŻEM ANKIETOWYM – badanie prowadzi się za pomocą ankiety. Badania sondażowe sprowadzają się najczęściej do badania specjalnie dobranej grupy, tzw. próby reprezentatywnej z populacji generalnej, od której doboru w dużym stopniu zależą wyniki naszych badań. Od rzetelności doboru próby zależy prawo rozciągania uogólnień na całą populację.

11. STRUKTURA WSPÓŁCZESNEJ PEDAGOGIKI

W nauce w ogóle i każdej dyscyplinie naukowej zachodzą przeciwstawne sobie procesy – to dezintegracja i integracja nauki. Zjawisko to występuje również w pedagogice i w sposób decydujący wpływa na jej strukturę. Za Janem Szczepańskim przyjmujemy, ze przez strukturę rozumieć będziemy układ elementów jakiejś rzeczy lub zjawiska i zasady ich wzajemnego przyporządkowania. Elementami, które wymagają uporządkowania określonej dyscypliny naukowej są teorie naukowe, wraz z tworzącymi je pojęciami, hipotezami i twierdzeniami, różne są jednak kryteria porządkujące elementy tworzące strukturę danej dyscypliny.

Karol Kotłowski proponuje tworzenie struktury pedagogiki wg kryterium metodologicznego odpowiadającego kolejnym etapom nauki rozwoju tej dyscypliny i wyznaczonego gromadzonym dorobkiem naukowym jej twórców. Stosując to kryterium pedagogikę podzielić można na:

I. PEDAGOGIKA praktyczna – tworzy ją opis pojedynczych doświadczeń i sprowadzania z bezpośredniej działalności dydaktyczno – wychowawczej. Z punktu widzenia nauki jej wartość jest kwestionowana, np. Bogdan Suchodolski odmawia w pedagogice praktycznej statusu pedagogiki naukowej. Jego zdaniem może ona być jedynie potoczną refleksją nad wychowaniem

II. PEDAGOGIKA opisowa (zwana eksperymentalną) – zajmuje się ona uogólnieniem (pojęć) doświadczenia dydaktyczno – edukacyjnego bądź też formułuje swoje twierdzenia na podstawie badań eksperymentalnych. Posługuje się więc ona dwoma procedurami badawczymi:

— eksperymentalna,

— expost facto

Badania prowadzone w ramach tak pojmowanej pedagogiki zmierzają do formułowania hipotez, twierdzeń i teorii, które odzwierciedlałyby złożone relacje wychowania z określonymi zjawiskami biologicznymi, psychologicznymi, socjologicznymi, kulturalnymi.

III. PEDAGOGIKA normatywna – to pedagogika, która w oparciu o różne źródła ustanawia ideały, cele i normy wychowania.

IV. PEDAGOGIKA ogólna – inaczej teoretyczna, która w oparciu o dorobek trzech w/w tworzy spójną teorię rozwoju człowieka i uwarunkowań tego rozwoju poprzez uogólnianie zjawisk wychowawczych i poszukiwanie najogólniejszych pojęć, tzw. siatki pojęć, które określałyby całościowe procesy rozwoju człowieka.

12. SCHARAKTERYZUJ WSPÓŁCZESNE PRĄDY I KIERUNKI W PEDAGOGICE XX WIEKU

PRĄDY:

REKONSTRUKCJONIZM – powstał w USA. W Polsce uprawiany jako odmiana postmodernizmu. Zakłada iż zmiana społeczeństwa jest nieunikniona. Przyszłość ludzkości toczy się poprzez naprzemienność kolektywizmu i autokracji. Wiele grup społecznych posiada własne upodobania, jedne kierują się w stronę autokracji, inne w stronę demokracjo kolektywnej.

Subkulturą zawodową, która może połączyć interesy obydwu tendencji są zdaniem rekonstrukcjonistów nauczyciele. Są oni architektami nowego porządku. Nauczyciele mają najszersze kompetencje do neutralizowania potrzeb obydwu tendencji. Kompetencje nauczycieli oparte są na świadomości społecznej, na świadomości rozwoju społeczeństwa, na rozwoju myśli pedagogicznej.

Polscy przedstawiciele rekonstrukcjonizmu: Kazimierz Sośnicki i Zbigniew Kwieciński, a na świecie Otto Rugg.

POSTMODERNIZM – nurt kulturalny, znalazł swoje odbicie także w pedagogice. Zdaniem postmodernistów, zaciera się różnica między kulturą popularną a kulturą wysoką, między awangardą a kiczem. W kulturze dominuje swoboda, dopuszczalne jest wszystko: wieloznaczność, przeplatanie się, dowolne wybieranie i manipulowanie cytatami. Jeśli chodzi o pedagogikę, zgadza się ona na różnorodność, wieloznaczność, niejednorodność. Odrzuca się wszystkie autorytety, wzorce, fundamentalne idee. Zdaniem postmodernistów jest nauczaniem postaw (nauczyciel – uczeń, rodzic – dziecko), również odgórnym kształtowaniem osobowości młodego człowieka. Postmoderniści odrzucają urabianie, odwołują się do źródeł i tekstów popularnych, popularnych min. Bazują na symptomach subkultur, odwołują się do symboliki młodzieżowej. Postmoderniści uważają, że pedagogika nie może rościć sobie prawa do nieomylnej wiedzy, nie ma także pewności co do jednoznaczności aktu naukowego poznania. Postmoderniści mocno akceptują probabilistyczny (prawdopodobny) charakter pedagogiki). Przedstawiciele na świecie: R. Rottary, w Polsce: T. Szkudlarek.

GLOBALIZM – nurt przyszedł ze Stanów Zjednoczonych. U podstaw tego nurtu leży przekonanie, że ludzkość żyje w ramach globalnych systemu: ekonomicznego, politycznego, kulturalnego, technicznego. Globalizmowi ulega także kultura w postaci rewolucji mikro – elektronicznej bądź też globalizmu lingwistycznego – objawia się uznaniem języka angielskiego za język międzynarodowy. Głównym celem pedagogiki jest wyposażenie młodzieży w wiedzę i globalną świadomość łączącej nas wspólnoty tzn. łączy nas wspólny system biologiczny, wspólna historia, wspólne potrzeby i problemy egzystencjalne. Globaliści uznają iż siebie samego należy postrzegać jako część ekosystemu ziemskiego. Cywilizacja jest globalnym bankiem kultury, z którego pokolenia czerpią kapitał ale nie można nie dostrzegać też problemów tej cywilizacji tj. bezrobocie, głód, wojny, przeludnienie na świecie. Do tych treści należy odwoływać się także w pedagogice. Przedstawiciele na świecie: J. Becker, w Polsce: I.Wojnar, Z.Melosik.

KIERUNKI:

PEDAGOGIKA FUNKCJONALNA zwana pajdocentryzmem, natywizmem albo pedagogiką swobodnego wychowania. Funkcjonalizm był kontynuacją pedagogiki eksperymentalnej. Odzwierciedlał ruch tzw. Nowego Wychowania (który wyrósł na gruncie rozwoju nauk biologicznych i psychologicznych. Funkcjonalizm w centrum zainteresowania stawiał dziecko i utożsamiał proces wychowania z tokiem jego naturalnego, swobodnego rozwoju. Dziecko z natury jest dobre i zdaniem funkcjonalistów jest białą kartą (tabula rasa), którą zapisuje się przez całe życie. Jest wiele odmian funkcjonalizmu. Najbardziej znane to: Ruch Szkół Aktywnych, Pedagogika Pracy, Koncepcje Planu Daltońskiego. Przedstawiciele to Geogr. Kerschenstainer, G. Dewey, Edward Claparede, August Ferriere, M. Montessouri, a w Polsce to kontynuatorzy Janusz Korczak, Henryk Rowid, Kazimierz Jeżewski, Józef Czesław Babicki.

PEDAGOGIKA SOCJOLOGICZNA zwana pedagogiką społeczną, socjologizmem pedagogicznym bądź pedagogiką środowisk wychowawczych. Wg pedagogów socjologicznych wychowanie jest aktem społecznym, każde społeczeństwo tworzy sobie właściwy ideał człowieka i ideał wychowania. Socjologizm traktuje zjawiska wychowania jako skutek oddziaływań na jednostki oraz grupy społeczne. Zakładał także urabianie osoby wychowanka do uczestnictwa w grupie. Do własnych badań procesu wychowania socjologizm opierał się głównie na metodach stosowanych socjologii. Przedstawiciele: Emil Durkheim, a w Polsce: H.Radlińska, St.Karpowicz, L.Krzywicki, Florian Znaniecki, Józef Chałasiński.

PEDAGOGIKA KULTURY zwana personalizmem pedagogicznym lub pedagogiką humanistyczną. Kierunek ten powstał jako próba pogodzenia się, a jednocześnie przeciwstawienia jednostronności tych dwóch poprzednich. Wg pedagogów kultury proces wychowania jest określony jako spotkanie jednostki ludzkiej (personalnej osoby) z dobrami kultury i określonymi warunkami, warunkami których się znajdują te trzy przedmioty (jednostka, otoczenie i dobra kultury). Człowiek bierze udział w tworzeniu dóbr kultury wzbogacając tym samym swoje siły duchowe i tworząc nowe wartości. Przedstawiciele to: Wilhelm Dilthey, a w Polsce: Zygmunt Mysłakowski, Bogdan Nawroczyński, Sergiusz Hessen, Bogdan Suchodolski.

PEDAGOGIKA MARKSISTOWSKA – nurt aktywny do końca lat 80 w Polsce. Inaczej zwana pedagogiką materialistyczną, oparta na filozofii marksistowskiej. Człowiek wprawdzie jest najwyższą wartością ale jego istota i rodzaj są całkowicie zdeterminowane przez warunki bytu społecznego i prawa rządzące ładem społecznym. Wychowanie służy zatem przekształceniu stosunków społecznych w imię sprawiedliwości społecznych. Pedagogika ta nazywana jest pedagogiką dyrektywną, inaczej narzuconą. Przedstawiciele: Karol Marks, F. Engels, Włodzimierz Lenin i jego żona Nadjeżda Krupska i pisarz rosyjski Lew Tołstoj. W Polsce to Aleksander Lewin, Wł. Spassowski, Stefania Sempołowska, St. Rudniański i Heliodor Muszyński.

PEDAGOGIKA CHRZEŚCIJAŃSKA – dzisiaj humanizm chrześcijański; pedagogika oparta na chrześcijańskich podstawach filozoficznych i światopoglądowych, światopoglądowych także na wychowawczej doktrynie kościoła. Koncepcja zakłada pełne rozwijanie osobowości wychowanka jako człowieka by mógł on się rozwijać wszechstronnie pod względem umysłowym, fizycznym i duchowym, musi przejść przez cztery społeczności wychowania:

· rodzina

· kościół

· szkoła

· państwo

Wszystkie one wychowują jednostkę do pokoju z Bogiem i ludźmi. Przedstawiciele: Kardynał Wyszyński, Paweł Woroniecki, ks Jan Basko, Karol Wojtyła, w Polsce Stefan Kunowski, ks Józef Tarnowski, Leon Dyczewski.

Chrześcijańska pedagogika otwarta powstała jako antyteza do ortodoksyjnej pedagogiki chrześcijańskiej bowiem w odróżnieniu od niej jest zdecydowanie bardziej dynamiczna, a w koncepcjach filozoficznych oparta na antropologii filozoficznej inspirowanej chrześcijaństwem.

13. DIAGNOZA PEDAGOGICZNA

Diagnoza w jęz. geckim diagnizis – oznacza rozpoznawanie, rozróżnianie, osądzanie. W ujęciu Stefana Ziemskiego diagnoza jest rozpoznawaniem badanego stanu rzeczy przez zaliczanie go do znanego typu lub gatunku, przez przyczynowe i celowościowe wyjaśnienie tego stanu, określenie jego fazy obecnej oraz przewidywanego dalszego rozwoju. Przedmiotem diagnozy są trudności i niepowodzenia ucznia w procesie nabywania i rozwijania umiejętności szkolnych, ich przyczyny i konsekwencje dla rozwoju. Cechy dobrej diagnozy to: rzetelność i trafność, trafność także nieodłączność prognozy. Dobra diagnoza wymaga zebrania wielu danych oraz intelektualnego opracowania ich przez zespół specjalistów.

Diagnoza interdyscyplinarna tj. wieloaspektowa, uwzględnia zebranie informacji w następujących zakresach:

1. w zakresie społecznym – badamy środow3isko rodzinne ucznia, jego sytuację, warunki w jakich żyje, środowisko szkolne – funkcjonowanie dziecka w roli ucznia i członka zbiorowości klasowej.

2. w zakresie medycznym – badamy rozwój fizyczny dziecka, jego ogólny stan zdrowia (b. słuchu, wzroku)

3. z zakresie psychologicznym – dokonujemy oceny poziomu rozwoju funkcji intelektualnych, orientacyjnych, wychowawczych (badamy iloraz inteligencji)

4. w zakresie pedagogicznym – dokonujemy analizy poziomu wiadomości i umiejętności szkolnych dziecka oraz specyfiki trudności w uczeniu się.

Stefan Ziemski sklasyfikował diagnozę w obszarze pięciu faz:

1. Diagnoza typologiczna – inaczej klasyfikacyjna lub nozologiczna (nozologia – to określenie nazewnictwa chorób) polega na przyporządkowaniu pewnego zespołu objawów jakiejś znanej jednostce klasyfikacyjnej.

2. Diagnoza genetyczna – to taki typ rozpoznania i oceny sytuacji, gdzie w postępowaniu diagnostycznym i ostatecznie sformułowanej diagnozie kładziemy nacisk na genezę zjawiska, jego źródło.

3. Diagnoza znaczenia – jej zadaniem jest wyjaśnienie znaczenia deficytu dla jego układu, dla całości organizmu.

4. Diagnoza fazy – to typ diagnozy polegający na określeniu stadium choroby lub zaburzenia bądź też etapu rozwoju badanego zjawiska.

5. Diagnoza prognostyczna – inaczej rozwojowa, to typ diagnozy, w którym nacisk kładziemy na przypuszczalny rozwój danego zjawiska.

Klasyfikacja wg Lesława Pytki:

1. Diagnoza opisowa – jej celem jest dokładny i szczegółowy opis cech i mechanizmów regulujących dany typ zachowania z punktu widzenia przyjętych norm społecznych.

2. Diagnoza projektująca – jest programem ewentualnych zmian, których należy dokonać w celu przywrócenia funkcjonalnej równowagi jednostki z otoczeniem.

3. Diagnoza sprawdzająca – inaczej weryfikująca; ma na celu wdrażenie oraz sprawdzenie wdrożonych do realizacji programów interwencyjnych: wychowawczych, edukacyjnych, terapeutycznych, resocjalizacyjnych.

Szkoła jest jedną z instytucji kształcenia i wychowania. O wynikach szkoły decyduje nie tylko to jaka szkoła jest, ale i to czy potrafi i zechce odpowiednio wykorzystać uwarunkowania takie jak: uczniowie nauczyciele, rodzice, program pracy szkoły i społeczność lokalna. Ważne jest by umiała łączyć poczynania edukacyjne z wszelkimi poczynaniami pozaszkolnych placówek wychowawczych, zaszczepić wychowankom umiejętność samodzielnego uczenia się oraz czy umie wiedzę pozaszkolną np. Pochodząca ze środowiska lokalnego wykorzystać w realizacji programu nauczania szkolnego. Te nowe oczekiwania z zakresu współpracy szkoły szczególnie ze środowiskiem lokalnym uspołeczni szkołę i wpłynie na tworzenie społeczeństwa edukacyjnego.

4 typy szkół: Szkoła nauczająca: nastawiona na przekaz informacji, wiadomości, Szkoła wychowująca: łączy nauczanie z wychowaniem, stwarza wiele sytuacji umożliwiających kształtowanie systemu wartości, wrażliwości emocjonalnej, odpowiedzialności. Szkoła opiekuńcza: zmierza do pokonania trudności szkolnych przez kompensację i profilaktykę w odniesieniu do uczniów, którzy nie mogą się prawidłowo rozwijać w warunkach szkolnych z powodu warunków psychicznych, zdrowotnych. Szkoła środowiskowa: rozszerza funkcję dydaktyczną, wychowawczą, opiekuńczą szkoły o współpracę ze środowiskiem lokalnym, kładzie akcent na aktywność, zespołowość młodzieży, wykorzystuje treści środowiskowe i zasób doświadczeń pozaszkolnych dzieci i młodzieży, włącza siły społeczne środowiska do realizacji swoich zadań, działalność pedagogiczną na zajęcia pozalekcyjne, rozwijanie planowych kontaktów za środowiskiem lokalnym.

Szkoła nauczająca, wychowująca, opiekuńcza i środowiskowa funkcjonuje w praktyce oświatowe. Przeważa jednak typ szkoły nauczającej, a w mniejszym stopniu nauczająco – wychowującej.

In its broadest sense, science (from the Latin scientia, meaning „knowledge”) refers to any systematic knowledge or practice. In its more usual restricted sense, science refers to a system of acquiring knowledge based on scientific method, as well as to the organized body of knowledge gained through such research.[1][2] This article focuses on the more restricted use of the word. Science as discussed in this article is sometimes termed experimental science to differentiate it from applied science, which is the application of scientific research to specific human needs, though the two are often interconnected.

Science is the effort to discover and increase human understanding of how physical reality works. Its purview is the portion of reality which is independent of religious, political, cultural, or philosophical outlook. Using controlled methods, scientists collect data in the form of observations, records of observable physical evidence of natural phenomena, and analyze this information to construct theoretical explanations of how things work. Knowledge in science is gained through research. The methods of scientific research include the generation of hypotheses about how natural phenomena work, and experimentation that tests these hypotheses under controlled conditions. The outcome or product of this empirical scientific process is the formulation of theory that describes human understanding of physical processes and facilitates prediction.

Lavoisier says, “… the impossibility of separating the nomenclature of a science from the science itself is owing to this, that every branch of physical science must consist of three things: the series of facts which are the objects of the science, the ideas which represent these facts and the words by which these ideas are expressed”.[3]

A broader modern definition of science may include the natural sciences along with the social and behavioral sciences, as the main subdivisions of science, defining it as the observation, identification, description, experimental investigation, and theoretical explanation of phenomena.[4] However, other contemporary definitions still place the natural sciences, which are closely related with the physical world’s phenomena, as the only true vehicles of science.

Contents [hide]

1 History of science

2 History of usage of the word science

2.1 Distinguished from technology

3 Scientific method

3.1 Mathematics

4 Philosophy of science

5 Critiques

5.1 Science, pseudoscience and nonscience

5.2 Philosophical focus

5.3 The media and the scientific debate

5.4 Politics and science

5.5 Epistemological issues

6 Scientific community

6.1 Fields

6.2 Institutions

6.3 Literature

7 See also 8 Notes

9 References

10 Further reading

11 External links

History of science

While empirical investigations of the natural world have been described since antiquity (for example, by Aristotle, Theophrastus and Pliny the Elder), and scientific methods have been employed since the Middle Ages (for example, by Ibn al-Haytham, Abu Rayhan Biruni and Roger Bacon), the dawn of modern science is generally traced back to the early modern period, during what is known as the Scientific Revolution of the 16th and 17th centuries. The Greek word for science is “??????µ?”, deriving from the verb „??????µ??”, which literally means „to know”.

History of usage of the word science

Well into the eighteenth century, science and natural philosophy were not quite synonymous, but only became so later with the direct use of what would become known formally as the scientific method, which was earlier developed during the Middle Ages and early modern period in Europe and the Middle East (see History of scientific method). Prior to the 18th century, however, the preferred term for the study of nature was natural philosophy, while English speakers most typically referred to the study of the human mind as moral philosophy. By contrast, the word „science” in English was still used in the 17th century to refer to the Aristotelian concept of knowledge which was secure enough to be used as a sure prescription for exactly how to do something. In this differing sense of the two words, the philosopher John Locke in An Essay Concerning Human Understanding wrote that “natural philosophy [the study of nature] is not capable of being made a science”.[5]

Personification of “Science” in front of the Boston Public LibraryBy the early 1800s, natural philosophy had begun to separate from philosophy, though it often retained a very broad meaning. In many cases, science continued to stand for reliable knowledge about any topic, in the same way it is still used in the broad sense (see the introduction to this article) in modern terms such as library science, political science, and computer science. In the more narrow sense of science, as natural philosophy became linked to an expanding set of well-defined laws (beginning with Galileo’s laws, Kepler’s laws, and Newton’s laws for motion), it became more popular to refer to natural philosophy as natural science. Over the course of the nineteenth century, moreover, there was an increased tendency to associate science with study of the natural world (that is, the non-human world). This move sometimes left the study of human thought and society (what would come to be called social science) in a linguistic limbo by the end of the century and into the next.[6]

Through the 19th century, many English speakers were increasingly differentiating science (meaning a combination of what we now term natural and biological sciences) from all other forms of knowledge in a variety of ways. The now-familiar expression “scientific method”, which refers to the prescriptive part of how to make discoveries in natural philosophy, was almost unused during the early part of the 19th century, but became widespread after the 1870s, though there was rarely total agreement about just what it entailed.[6] The word “scientist”, meant to refer to a systematically-working natural philosopher, (as opposed to an intuitive or empirically-minded one) was coined in 1833 by William Whewell.[7] Discussion of scientists as a special group of people who did science, even if their attributes were up for debate, grew in the last half of the 19th century.[6] Whatever people actually meant by these terms at first, they ultimately depicted science, in the narrow sense of the habitual use of the scientific method and the knowledge derived from it, as something deeply distinguished from all other realms of human endeavor.

By the twentieth century, the modern notion of science as a special brand of information about the world, practiced by a distinct group and pursued through a unique method, was essentially in place. It was used to give legitimacy to a variety of fields through such titles as „scientific” medicine, engineering, advertising, or motherhood.[6] Over the 1900s, links between science and technology also grew increasingly strong.

Distinguished from technology

By the end of the century, it is arguable that technology had even begun to eclipse science as a term of public attention and praise. Scholarly studies of science have begun to refer to „technoscience” rather than science or technology separately. Meanwhile, such fields as biotechnology and nanotechnology are capturing the headlines. One author has suggested that, in the coming century, „science” may fall out of use, to be replaced by technoscience or even by some more exotic label such as “techknowledgy”.[6]

Scientific method

The Bohr model of the atom, like many ideas in the history of science, was at first prompted by and later partially disproved by experiment.A scientific method seeks to explain the events of nature in a reproducible way, and to use these reproductions to make useful predictions. It is done through observation of natural phenomena, and/or through experimentation that tries to simulate natural events under controlled conditions. It provides an objective process to find solutions to problems in a number of scientific and technological fields.[8]

Based on observations of a phenomenon, a scientist may generate a model. This is an attempt to describe or depict the phenomenon in terms of a logical physical or mathematical representation. As empirical evidence is gathered, a scientist can suggest a hypothesis to explain the phenomenon. This description can be used to make predictions that are testable by experiment or observation using scientific method. When a hypothesis proves unsatisfactory, it is either modified or discarded.

While performing experiments, scientists may have a preference for one outcome over another, and it is important that this tendency not bias their interpretation.[9][10] A strict following of a scientific method attempts to minimize the influence of a scientist’s bias on the outcome of an experiment. This can be achieved by correct experimental design, and a thorough peer review of the experimental results as well as conclusions of a study.[11][12] Once the experiment results are announced or published, an important cross-check can be the need to validate the results by an independent party.[13]

Once a hypothesis has survived testing, it may become adopted into the framework of a scientific theory. This is a logically reasoned, self-consistent model or framework for describing the behavior of certain natural phenomena. A theory typically describes the behavior of much broader sets of phenomena than a hypothesis—commonly, a large number of hypotheses can be logically bound together by a single theory. These broader theories may be formulated using principles such as parsimony (e.g. “Occam’s Razor”). They are then repeatedly tested by analysing how the collected evidence (facts) compares to the theory. When a theory survives a sufficiently large number of empirical observations, it then becomes a scientific generalization that can be taken as fully verified.

Despite the existence of well-tested theories, science cannot claim absolute knowledge of nature or the behavior of the subject or of the field of study due to epistemological problems that are unavoidable and preclude the discovery or establishment of absolute truth. Unlike a mathematical proof, a scientific theory is empirical, and is always open to falsification, if new evidence is presented. Even the most basic and fundamental theories may turn out to be imperfect if new observations are inconsistent with them. Critical to this process is making every relevant aspect of research publicly available, which allows ongoing review and repeating of experiments and observations by multiple researchers operating independently of one another. Only by fulfilling these expectations can it be determined how reliable the experimental results are for potential use by others.

Isaac Newton’s law of gravitation is a famous example of an established law that was later found not to be universal—it does not hold in experiments involving motion at speeds close to the speed of light or in close proximity of strong gravitational fields; outside these conditions, Newtonian mechanics remains an excellent model of motion and gravity, while general relativity accounts for the same phenomena that Newton’s Laws do, and more. General relativity is now regarded as a more comprehensive theory,[14] reducing to Newtonian mechanics at lower speeds. Newtonian mechanics remains in use worldwide, due to its computational simplicity.

One position in the philosophy of science, initially advanced by Paul Feyerabend in Against Method, is that there really is no such thing as the scientific method. Rather, philosophers of science say that there are scientific methods. For example, controlled experiments are commonly performed in physics, chemistry, medicine, etc. While controlled experiments are impossible in climatology, geology or astrophysics, in these sciences, observations for posited predictions serve to corroborate hypotheses.

Mathematics

Data from the famous Michelson-Morley experimentMathematics is essential to many sciences. One important function of mathematics in science is the role it plays in the expression of scientific models. Observing and collecting measurements, as well as hypothesizing and predicting, often require extensive use of mathematics and mathematical models. Calculus may be the branch of mathematics most often used in science, but virtually every branch of mathematics has applications in science, including “pure” areas such as number theory and topology. Mathematics is fundamental to the understanding of the natural sciences and the social sciences, many of which also rely heavily on statistics.

Statistical methods, comprised of mathematical techniques for summarizing and exploring data, allow scientists to assess the level of reliability and the range of variation in experimental results. Statistical thinking also plays a fundamental role in many areas of science.

Computational science applies computing power to simulate real-world situations, enabling a better understanding of scientific problems than formal mathematics alone can achieve. According to the Society for Industrial and Applied Mathematics, computation is now as important as theory and experiment in advancing scientific knowledge.[15]

Whether mathematics itself is properly classified as science has been a matter of some debate. Some thinkers see mathematicians as scientists, regarding physical experiments as inessential or mathematical proofs as equivalent to experiments. Others do not see mathematics as a science, since it does not require an experimental test of its theories and hypotheses. Mathematical theorems and formulas are obtained by logical derivations which presume axiomatic systems, rather than the combination of empirical observation and logical reasoning that has come to be known as scientific method. In general, mathematics is classified as formal science, while natural and social sciences are classified as empirical sciences.[16]

Philosophy of science

Velocity-distribution data of a gas of rubidium atoms, confirming the discovery of a new phase of matter, the Bose-Einstein condensate.Main article: Philosophy of science

The philosophy of science seeks to understand the nature and justification of scientific knowledge. It has proven difficult to provide a definitive account of scientific method that can decisively serve to distinguish science from non-science. Thus there are legitimate arguments about exactly where the borders are, leading to the problem of demarcation. There is nonetheless a set of core precepts that have broad consensus among published philosophers of science and within the scientific community at large.

Science is reasoned-based analysis of sensation upon our awareness. As such, a scientific method cannot deduce anything about the realm of reality that is beyond what is observable by existing or theoretical means.[17] When a manifestation of our reality previously considered supernatural is understood in the terms of causes and consequences, it acquires a scientific explanation.[18]

Some of the findings of science can be very counter-intuitive. Atomic theory, for example, implies that a granite boulder which appears a heavy, hard, solid, grey object is actually a combination of subatomic particles with none of these properties, moving very rapidly in space where the mass is concentrated in a very small fraction of the total volume. Many of humanity’s preconceived notions about the workings of the universe have been challenged by new scientific discoveries. Quantum mechanics, particularly, examines phenomena that seem to defy our most basic postulates about causality and fundamental understanding of the world around us.

There are different schools of thought in the philosophy of scientific method. Methodological naturalism maintains that scientific investigation must adhere to empirical study and independent verification as a process for properly developing and evaluating natural explanations for observable phenomena.[19] Methodological naturalism, therefore, rejects supernatural explanations, arguments from authority and biased observational studies. Critical rationalism instead holds that unbiased observation is not possible and a demarcation between natural and supernatural explanations is arbitrary; it instead proposes falsifiability as the landmark of empirical theories and falsification as the universal empirical method. Critical rationalism argues for the ability of science to increase the scope of testable knowledge, but at the same time against its authority, by emphasizing its inherent fallibility. It proposes that science should be content with the rational elimination of errors in its theories, not in seeking for their verification (such as claiming certain or probable proof or disproof; both the proposal and falsification of a theory are only of methodological, conjectural, and tentative character in critical rationalism).[20] Instrumentalism rejects the concept of truth and emphasizes merely the utility of theories as instruments for explaining and predicting phenomena.[21]

Critiques

Science, pseudoscience and nonscience

Main articles: Cargo cult science, Fringe science, Junk science, Pseudoscience, and Scientific misconduct

Any established body of knowledge which masquerades as science in an attempt to claim a legitimacy which it would not otherwise be able to achieve on its own terms is not science; it is often known as fringe – or alternative science. The most important of its defects is usually the lack of the carefully controlled and thoughtfully interpreted experiments which provide the foundation of the natural sciences and which contribute to their advancement. Another term, junk science, is often used to describe scientific theories or data which, while perhaps legitimate in themselves, are believed to be mistakenly used to support an opposing position. There is usually an element of political or ideological bias in the use of the term. Thus the arguments in favor of limiting the use of fossil fuels in order to reduce global warming are often characterized as junk science by those who do not wish to see such restrictions imposed, and who claim that other factors may well be the cause of global warming. A wide variety of commercial advertising (ranging from hype to outright fraud) would also fall into this category. Finally, there is just plain bad science, which is commonly used to describe well-intentioned but incorrect, obsolete, incomplete, or over-simplified expositions of scientific ideas.

The status of many bodies of knowledge as true sciences, has been a matter of debate. Discussion and debate abound in this topic with some fields like the social and behavioural sciences accused by critics of being unscientific. Many groups of people from academicians like Nobel Prize physicist Percy W. Bridgman,[22] or Dick Richardson, Ph.D.—Professor of Integrative Biology at the University of Texas at Austin,[23] to politicians like U.S. Senator Kay Bailey Hutchison and other co-sponsors,[24] oppose giving their support or agreeing with the use of the label „science” in some fields of study and knowledge they consider non-scientific, ambiguous, or scientifically irrelevant compared with other fields. Karl Popper denied the existence of evidence[25] and of scientific method.[26] Popper holds that there is only one universal method, the negative method of trial and error. It covers not only all products of the human mind, including science, mathematics, philosophy, art and so on, but also the evolution of life.[27] He also contributed to the positivism dispute, a philosophical dispute between critical rationalism (Popper, Albert) and the Frankfurt School (Adorno, Habermas) about the methodology of the social sciences.[28]

Philosophical focus

Historian Jacques Barzun termed science „a faith as fanatical as any in history” and warned against the use of scientific thought to suppress considerations of meaning as integral to human existence.[29] Many recent thinkers, such as Carolyn Merchant, Theodor Adorno and E. F. Schumacher considered that the 17th century scientific revolution shifted science from a focus on understanding nature, or wisdom, to a focus on manipulating nature, i.e. Power, and that science’s emphasis on manipulating nature leads it inevitably to manipulate people, as well.[30] Science’s focus on quantitative measures has led to critiques that it is unable to recognize important qualitative aspects of the world.[30] It is not clear, however, if this kind of criticism is adequate to a vast number of non-experimental scientifics fields like astronomy, cosmology, evolutionary biology, complexity theory, paleontology, paleoanthropology, archeology, earth sciences, climatology, ecology and other sciences, like statistical physics of irreversible non-linear systems, that emphasize systemic and historically contingent frozen accidents. Considerations about the philosophical impact of science to the discussion of the meaning (or lack thereof) in human existence are not suppressed but strongly discussed in the literature of science divulgation, a movement sometimes called The Third Culture.

The implications of the ideological denial of ethics for the practice of science itself in terms of fraud, plagiarism, and data falsification, has been criticized by several academics. in “Science and Ethics”, the philosopher Bernard Rollin examines the ideology that denies the relevance of ethics to science, and argues in favor of making education in ethics part and parcel of scientific training.[31]

The media and the scientific debate

The mass media face a number of pressures that can prevent them from accurately depicting competing scientific claims in terms of their credibility within the scientific community as a whole. Determining how much weight to give different sides in a scientific debate requires considerable expertise on the issue at hand.[32] Few journalists have real scientific knowledge, and even beat reporters who know a great deal about certain scientific issues may know little about other ones they are suddenly asked to cover.[33][34]

Politics and science

Many of the same issues that dog the relationship of science with the media also colour the use of science and scientific arguments by politicians. As a broad generalisations, many politicians seek certainties and facts whilst scientists typically offer probabilities and caveats. However, politicians ability to be heard in the mass media frequently distorts the scientific understanding by the public. Recent example in Britain include the controversy over the MMR inoculation and in the distant past the sacking of a Government Minister, Ms Edwina Curry for revealing (correctly) the high probability that battery eggs were contaminated with Salmonella.[35]

Epistemological issues

Psychologist Carl Jung believed that though science attempted to understand all of nature, the experimental method used would pose artificial, conditional questions that evoke only partial answers.[36] Robert Anton Wilson criticized science for using instruments to ask questions that produce answers only meaningful in terms of the instrument, and that there was no such thing as a completely objective vantage point from which to view the results of science.[37] Parkin suggests that, compared to other ways of knowing (ex. divination), the epistemological stance of science is on the same spectrum as any other approach; it is simply in a different area of the range in terms of its specific techniques and processes.[38] In this sense, to the degree that divination is an epistemologically specific means of gaining insight into a given question, Parkin suggests that science itself can be considered a form of divination that is framed from a Western view of the nature (and thus possible applications) of knowledge (i.e. a Western epistemology).

Scientific community

The scientific community consists of the total body of scientists, its relationships and interactions. It is normally divided into “sub-communities”, each working on a particular field within science.

Fields

The Meissner effect causes a magnet to levitate above a superconductorMain article: Fields of science

Fields of science are commonly classified along two major lines: natural sciences, which study natural phenomena (including biological life), and social sciences, which study human behavior and societies. These groupings are empirical sciences, which means the knowledge must be based on observable phenomena and capable of being experimented for its validity by other researchers working under the same conditions.[2] There are also related disciplines that are grouped into interdisciplinary and applied sciences, such as engineering and health science. Within these categories are specialized scientific fields that can include elements of other scientific disciplines but often possess their own terminology and body of expertise.[39]

Mathematics, which is sometimes classified within a third group of science called formal science, has both similarities and differences with the natural and social sciences.[2] It is similar to empirical sciences in that it involves an objective, careful and systematic study of an area of knowledge; it is different because of its method of verifying its knowledge, using a priori rather than empirical methods.[2] Formal science, which also includes statistics and logic, is vital to the empirical sciences. Major advances in formal science have often led to major advances in the physical and biological sciences. The formal sciences are essential in the formation of hypotheses, theories, and laws,[2] both in discovering and describing how things work (natural sciences) and how people think and act (social sciences).

Institutions

Louis XIV visiting the Académie des sciences in 1671.Learned societies for the communication and promotion of scientific thought and experimentation have existed since the Renaissance period.[40] The oldest surviving institution is the Accademia dei Lincei in Italy.[41] National Academy of Sciences are distinguished institutions that exist in a number of countries, beginning with the British Royal Society in 1660[42] and the French Académie des Sciences in 1666.[43]

International scientific organizations, such as the International Council for Science, have since been formed to promote cooperation between the scientific communities of different nations. More recently, influential government agencies have been created to support scientific research, including the National Science Foundation in the U.S.

Other prominent organizations include the academies of science of many nations, CSIRO in Australia, Centre national de la recherche scientifique in France, Max Planck Society and Deutsche Forschungsgemeinschaft in Germany, and in Spain, CSIC.

Literature

An enormous range of scientific literature is published.[44] Scientific journals communicate and document the results of research carried out in universities and various other research institutions, serving as an archival record of science. The first scientific journals, Journal des Sçavans followed by the Philosophical Transactions, began publication in 1665. Since that time the total number of active periodicals has steadily increased. As of 1981, one estimate for the number of scientific and technical journals in publication was 11,500.[45] Today Pubmed lists almost 40,000, related to the medical sciences only.[46]

Most scientific journals cover a single scientific field and publish the research within that field; the research is normally expressed in the form of a scientific paper. Science has become so pervasive in modern societies that it is generally considered necessary to communicate the achievements, news, and ambitions of scientists to a wider populace.

Science magazines such as New Scientist, Science & Vie and Scientific American cater to the needs of a much wider readership and provide a non-technical summary of popular areas of research, including notable discoveries and advances in certain fields of research. Science books engage the interest of many more people. Tangentially, the science fiction genre, primarily fantastic in nature, engages the public imagination and transmits the ideas, if not the methods, of science.

Recent efforts to intensify or develop links between science and non-scientific disciplines such as Literature or, more specifically, poetry, include the Creative Writing ↔ Science resource developed through the Royal Literary Fund.[47]

Scientific method refers to techniques for investigating phenomena, acquiring new knowledge, or correcting and integrating previous knowledge. To be termed scientific, a method of inquiry must be based on gathering observable, empirical and measurable evidence subject to specific principles of reasoning.[1] A scientific method consists of the collection of data through observation and experimentation, and the formulation and testing of hypotheses.[2]

Although procedures vary from one field of inquiry to another, identifiable features distinguish scientific inquiry from other methodologies of knowledge. Scientific researchers propose hypotheses as explanations of phenomena, and design experimental studies to test these hypotheses. These steps must be repeatable in order to dependably predict any future results. Theories that encompass wider domains of inquiry may bind many hypotheses together in a coherent structure. This in turn may help form new hypotheses or place groups of hypotheses into context.

Among other facets shared by the various fields of inquiry is the conviction that the process be objective to reduce a biased interpretation of the results. Another basic expectation is to document, archive and share all data and methodology so they are available for careful scrutiny by other scientists, thereby allowing other researchers the opportunity to verify results by attempting to reproduce them. This practice, called full disclosure, also allows statistical measures of the reliability of these data to be established.

Contents [hide]

1 Introduction to scientific method

2 Truth and belief

3 Elements of scientific method

3.1 DNA example

3.2 Characterizations

3.2.1 Uncertainty

3.2.2 Definition

3.2.3 Example of characterizations

3.2.3.1 DNA-characterizations

3.2.3.2 Precession of Mercury

3.3 Hypothesis development

3.3.1 DNA-hypotheses

3.4 Predictions from the hypothesis

3.4.1 DNA-predictions

3.4.2 General relativity

3.5 Experiments

3.5.1 DNA-experiments

4 Evaluation and iteration

4.1 Testing and improvement

4.1.1 DNA-iterations

4.2 Confirmation

5 Models of scientific inquiry

5.1 Classical model

5.2 Pragmatic model

5.3 Computational approaches

6 Philosophy and sociology of science

7 Communication, community, culture

7.1 Peer review evaluation

7.2 Documentation and replication

7.2.1 Archiving

7.2.2 Data sharing

7.2.3 Limitations

7.3 Dimensions of practice

8 History

9 Relationship with mathematics

10 See also 10.1 Synopsis of related topics

10.2 Logic, mathematics, methodology

10.3 Problems and issues

10.4 History, philosophy, sociology

11 Notes and references

12 Further reading

13 External links

Introduction to scientific method

Ibn al-Haytham (Alhazen), 965–1039, Basra.Since Ibn al-Haytham (Alhazen, 965–1039), one of the key figures in developing scientific method, the emphasis has been on seeking truth:

“Truth is sought for its own sake. And those who are engaged upon the quest for anything for its own sake are not interested in other things. Finding the truth is difficult, and the road to it is rough”.[3]

“How does light travel through transparent bodies? Light travels through transparent bodies in straight lines only… We have explained this exhaustively in our Book of Optics. But let us now mention something to prove this convincingly: the fact that light travels in straight lines is clearly observed in the lights which enter into dark rooms through holes… [T]he entering light will be clearly observable in the dust which fills the air”.[4]

Alhazen in Book of Optics (1021): light travels in straight lines.The conjecture that “light travels through transparent bodies in straight lines only” was corroborated by Alhazen only after years of effort. His demonstration of the conjecture was to place a straight stick or a taut thread next to the light beam,[5] to prove that light travels in a straight line.

Scientific methodology has been practiced in some form for at least one thousand years. There are difficulties in a formulaic statement of method, however. As William Whewell (1794–1866) noted in his History of Inductive Science (1837) and in Philosophy of Inductive Science (1840), “invention, sagacity, genius” are required at every step in scientific method. It is not enough to base scientific method on experience alone[6]; multiple steps are needed in scientific method, ranging from our experience to our imagination, back and forth.

In the twentieth century, a hypothetico-deductive model for scientific method was formulated (for a more formal discussion, see below):

1. Use your experience: Consider the problem and try to make sense of it. Look for previous explanations. If this is a new problem to you, then move to step 2.

2. Form a conjecture: When nothing else is yet known, try to state an explanation, to someone else, or to your notebook.

3. Deduce a prediction from that explanation: If you assume 2 is true, what consequences follow?

4. Test : Look for the opposite of each consequence in order to disprove 2. It is a logical error to seek 3 directly as proof of 2. This error is called affirming the consequent.

This model underlies the scientific revolution. One thousand years ago, Alhazen demonstrated the importance of steps 1 and 4. Galileo (1638) also showed the importance of step 4 (also called Experiment) in Two New Sciences. One possible sequence in this model would be 1, 2, 3, 4. If the outcome of 4 holds, and 3 is not yet disproven, you may continue with 3, 4, 1, and so forth; but if the outcome of 4 shows 3 to be false, you will have go back to 2 and try to invent a new 2, deduce a new 3, look for 4, and so forth.

Note that this method can never absolutely verify (prove the truth of) 2. It can only falsify 2.[7] (This is what Einstein meant when he said „No amount of experimentation can ever prove me right; a single experiment can prove me wrong”.[8])

In the twentieth century, Ludwik Fleck (1896–1961) and others found that we need to consider our experiences more carefully, because our experience may be biased, and that we need to be more exact when describing our experiences.[9] These considerations are discussed below.

Flying horse depiction: disproven; see below.

Truth and belief

Belief can alter observations; those with a particular belief will often see things as reinforcing their belief, even if they do not.[10] Needham’s Science and Civilization in China uses the “flying horse” image as an example of observation: in it, a horse’s legs are depicted as splayed, when the stop-action picture by Eadweard Muybridge shows otherwise. Note that at the moment that no hoof is touching the ground, the horse’s legs are gathered together and are not splayed.

Eadweard Muybridge’s studies of a horse gallopingEarlier paintings depict the incorrect flying horse observation. This demonstrates Ludwik Fleck’s caution that people observe what they expect to observe, until shown otherwise; our beliefs will affect our observations (and therefore our subsequent actions). The purpose of the scientific method is to test a hypothesis, a proposed explanation about how things are, via repeatable experimental observations which can contradict the hypothesis so as to fight this observer bias.

Elements of scientific method

There are many ways of outlining the basic method shared by all fields of scientific inquiry. The following examples are typical classifications of the most important components of the method on which there is wide agreement in the scientific community and among philosophers of science. There are, however, disagreements about some aspects.

The following set of methodological elements and organization of procedures tends to be more characteristic of natural sciences than social sciences. In the social sciences mathematical and statistical methods of verification and hypotheses testing may be less stringent. Nonetheless the cycle of hypothesis, verification and formulation of new hypotheses will resemble the cycle described below.

The essential elements[11][12][13] of a scientific method[14] are iterations,[15][16] recursions,[17] interleavings, and orderings of the following:

Characterizations (observations,[18] definitions, and measurements of the subject of inquiry)

Hypotheses[19][20] (theoretical, hypothetical explanations of observations and measurements of the subject)[21]

Predictions (reasoning including logical deduction[22] from the hypothesis or theory)

Experiments[23] (tests of all of the above)

Each element of a scientific method is subject to peer review for possible mistakes. These activities do not describe all that scientists do (see below) but apply mostly to experimental sciences (e.g. Physics, chemistry). The elements above are often taught in the educational system.[24]

Scientific method is not a recipe: it requires intelligence, imagination, and creativity.[25] It is also an ongoing cycle, constantly developing more useful, accurate and comprehensive models and methods. For example, when Einstein developed the Special and General Theories of Relativity, he did not in any way refute or discount Newton’s Principia. On the contrary, if the astronomically large, the vanishingly small, and the extremely fast are reduced out from Einstein’s theories — all phenomena that Newton could not have observed — Newton’s equations remain. Einstein’s theories are expansions and refinements of Newton’s theories, and observations that increase our confidence in them also increase our confidence in Newton’s approximations to them.

A linearized, pragmatic scheme of the four points above is sometimes offered as a guideline for proceeding:[26]

Define the question

Gather information and resources (observe)

Form hypothesis

Perform experiment and collect data

Analyze data

Interpret data and draw conclusions that serve as a starting point for new hypothesis

Publish results

Retest (frequently done by other scientists)

The iterative cycle inherent in this step-by-step methodology goes from point 3 to 6 back to 3 again.

While this schema outlines a typical hypothesis/testing method,[27] it should also be noted that a number of philosophers, historians and sociologists of science (perhaps most notably Paul Feyerabend) claim that such descriptions of scientific method have little relation to the ways science is actually practiced.

The “operational” paradigm combines the concepts of operational definition, instrumentalism, and utility:

The essential elements of a scientific method are operations, observations, models, and a utility function for evaluating models.[28]

Operation – Some action done to the system being investigated

Observation – What happens when the operation is done to the system

Model – A fact, hypothesis, theory, or the phenomenon itself at a certain moment

Utility Function – A measure of the usefulness of the model to explain, predict, and control, and of the cost of use of it. One of the elements of any scientific utility function is the refutability of the model. Another is its simplicity, on the Principle of Parsimony also known as Occam’s Razor.

The Keystones of Science project, sponsored by the journal Science, has selected a number of scientific articles from that journal and annotated them, illustrating how different parts of each article embody scientific method. Here is an annotated example of this scientific method example titled Microbial Genes in the Human Genome: Lateral Transfer or Gene Loss?

DNA example

Each element of scientific method is illustrated below by an example from the discovery of the structure of DNA:

DNA-characterizations: in this case, although the significance of the gene had been established, the mechanism was unclear to anyone, as of 1950.

DNA-hypotheses: Crick and Watson hypothesized that the gene had a physical basis – it was helical.[29]

DNA-predictions: from earlier work on tobacco mosaic virus,[30] Watson was aware of the significance of Crick’s formulation of the transform of a helix.[31] Thus he was primed for the significance of the X-shape in photo 51.

DNA-experiments: Watson sees photo 51.[32]

The examples are continued in “Evaluations and iterations” with DNA-iterations.[33]

Characterizations

Scientific method depends upon increasingly more sophisticated characterizations of the subjects of investigation. (The subjects can also be called unsolved problems or the unknowns.) For example, Benjamin Franklin correctly characterized St. Elmo’s fire as electrical in nature, but it has taken a long series of experiments and theory to establish this. While seeking the pertinent properties of the subjects, this careful thought may also entail some definitions and observations; the observations often demand careful measurements and/or counting.

“I am not accustomed to saying anything with certainty after only one or two observations”.[34] —Andreas Vesalius (1546)

The systematic, careful collection of measurements or counts of relevant quantities is often the critical difference between pseudo-sciences, such as alchemy, and a science, such as chemistry or biology. Scientific measurements taken are usually tabulated, graphed, or mapped, and statistical manipulations, such as correlation and regression, performed on them. The measurements might be made in a controlled setting, such as a laboratory, or made on more or less inaccessible or unmanipulatable objects such as stars or human populations. The measurements often require specialized scientific instruments such as thermometers, spectroscopes, or voltmeters, and the progress of a scientific field is usually intimately tied to their invention and development.

Uncertainty

Measurements in scientific work are also usually accompanied by estimates of their uncertainty. The uncertainty is often estimated by making repeated measurements of the desired quantity. Uncertainties may also be calculated by consideration of the uncertainties of the individual underlying quantities that are used. Counts of things, such as the number of people in a nation at a particular time, may also have an uncertainty due to limitations of the method used. Counts may only represent a sample of desired quantities, with an uncertainty that depends upon the sampling method used and the number of samples taken.

Definition

Measurements demand the use of operational definitions of relevant quantities. That is, a scientific quantity is described or defined by how it is measured, as opposed to some more vague, inexact or “idealized” definition. For example, electrical current, measured in amperes, may be operationally defined in terms of the mass of silver deposited in a certain time on an electrode in an electrochemical device that is described in some detail. The operational definition of a thing often relies on comparisons with standards: the operational definition of “mass” ultimately relies on the use of an artifact, such as a certain kilogram of platinum-iridium kept in a laboratory in France.

The scientific definition of a term sometimes differs substantially from its natural language usage. For example, mass and weight overlap in meaning in common discourse, but have distinct meanings in mechanics. Scientific quantities are often characterized by their units of measure which can later be described in terms of conventional physical units when communicating the work.

New theories sometimes arise upon realizing that certain terms had not previously been sufficiently clearly defined. For example, Albert Einstein’s first paper on relativity begins by defining simultaneity and the means for determining length. These ideas were skipped over by Isaac Newton with, “I do not define time, space, place and motion, as being well known to all”. Einstein’s paper then demonstrates that they (viz., absolute time and length independent of motion) were approximations. Francis Crick cautions us that when characterizing a subject, however, it can be premature to define something when it remains ill-understood.[35] In Crick’s study of consciousness, he actually found it easier to study awareness in the visual system, rather than to study free will, for example. His cautionary example was the gene; the gene was much more poorly understood before Watson and Crick’s pioneering discovery of the structure of DNA; it would have been counterproductive to spend much time on the definition of the gene, before them.

Example of characterizations

DNA-characterizations

The history of the discovery of the structure of DNA is a classic example of the elements of scientific method: in 1950 it was known that genetic inheritance had a mathematical description, starting with the studies of Gregor Mendel. But the mechanism of the gene was unclear. Researchers in Bragg’s laboratory at Cambridge University made X-ray diffraction pictures of various molecules, starting with crystals of salt, and proceeding to more complicated substances. Using clues which were painstakingly assembled over the course of decades, beginning with its chemical composition, it was determined that it should be possible to characterize the physical structure of DNA, and the X-ray images would be the vehicle…2. DNA-hypotheses

Precession of Mercury

Precession of the perihelion (exaggerated). The characterization element can require extended and extensive study, even centuries. It took thousands of years of measurements, from the Chaldean, Indian, Persian, Greek, Arabic and European astronomers, to record the motion of planet Earth. Newton was able to condense these measurements into consequences of his laws of motion. But the perihelion of the planet Mercury’s orbit exhibits a precession that is not fully explained by Newton’s laws of motion. The observed difference for Mercury’s precession between Newtonian theory and relativistic theory (approximately 43 arc-seconds per century), was one of the things that occurred to Einstein as a possible early test of his theory of General Relativity.

Hypothesis development

A hypothesis is a suggested explanation of a phenomenon, or alternately a reasoned proposal suggesting a possible correlation between or among a set of phenomena.

Normally hypotheses have the form of a mathematical model. Sometimes, but not always, they can also be formulated as existential statements, stating that some particular instance of the phenomenon being studied has some characteristic and causal explanations, which have the general form of universal statements, stating that every instance of the phenomenon has a particular characteristic.

Scientists are free to use whatever resources they have — their own creativity, ideas from other fields, induction, Bayesian inference, and so on — to imagine possible explanations for a phenomenon under study. Charles Sanders Peirce, borrowing a page from Aristotle (Prior Analytics, 2.25) described the incipient stages of inquiry, instigated by the “irritation of doubt” to venture a plausible guess, as abductive reasoning. The history of science is filled with stories of scientists claiming a „flash of inspiration”, or a hunch, which then motivated them to look for evidence to support or refute their idea. Michael Polanyi made such creativity the centerpiece of his discussion of methodology.

William Glen observes that

the success of a hypothesis, or its service to science, lies not simply in its perceived „truth”, or power to displace, subsume or reduce a predecessor idea, but perhaps more in its ability to stimulate the research that will illuminate… bald suppositions and areas of vagueness.[36]

In general scientists tend to look for theories that are „elegant” or “beautiful”. In contrast to the usual English use of these terms, they here refer to a theory in accordance with the known facts, which is nevertheless relatively simple and easy to handle. Occam’s Razor serves as a rule of thumb for making these determinations.

DNA-hypotheses

Linus Pauling proposed that DNA was a triple helix. Francis Crick and James Watson learned of Pauling’s hypothesis, understood from existing data that Pauling was wrong and realized that Pauling would soon realize his mistake. So, the race was on to figure out the correct structure — except that Pauling did not realize at the time that he was in a race! 3. DNA-predictions

Predictions from the hypothesis

Any useful hypothesis will enable predictions, by reasoning including deductive reasoning. It might predict the outcome of an experiment in a laboratory setting or the observation of a phenomenon in nature. The prediction can also be statistical and only talk about probabilities.

It is essential that the outcome be currently unknown. Only in this case does the eventuation increase the probability that the hypothesis be true. If the outcome is already known, it’s called a consequence and should have already been considered while formulating the hypothesis.

If the predictions are not accessible by observation or experience, the hypothesis is not yet useful for the method, and must wait for others who might come afterward, and perhaps rekindle its line of reasoning. For example, a new technology or theory might make the necessary experiments feasible.

DNA-predictions

The hypothesis (by James Watson and Francis Crick among others) that DNA had a helical structure implied the prediction that it would produce an x shaped X-ray diffraction pattern. This followed from the work of Cochran, Crick and Vand[31] (and independently by Stokes) who had provided a mathematical basis for the empirical observation that helical structures produce x shapes.

Also in their first paper, Watson and Crick predicted that the double helix structure provided a simple mechanism for DNA replication, writing „It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material”…4. DNA-experiments

General relativity

Einstein’s prediction (1907): Light bends in a gravitational fieldEinstein’s theory of General Relativity makes several specific predictions about the observable structure of space-time, such as a prediction that light bends in a gravitational field and that the amount of bending depends in a precise way on the strength of that gravitational field. Arthur Eddington’s observations made during a 1919 solar eclipse supported General Relativity rather than Newtonian gravitation.

Experiments

Once predictions are made, they can be tested by experiments. If test results contradict predictions, then the hypotheses are called into question and explanations may be sought. Sometimes experiments are conducted incorrectly and are at fault. If the results confirm the predictions, then the hypotheses are considered likely to be correct but might still be wrong and are subject to further testing. The experimental control is a technique for dealing with observational error. This technique uses the contrast between multiple samples (or observations) under differing conditions, to see what varies or what remains the same. We vary the conditions for each measurement, to help isolate what has changed. Mill’s canons can then help us figure out what the important factor is. Factor analysis is one technique for discovering the important factor in an effect.

Depending on the predictions, the experiments can have different shapes. It could be a classical experiment in a laboratory setting, a double-blind study or an archaeological excavation. Even taking a plane from New York to Paris is an experiment which tests the aerodynamical hypotheses used for constructing the plane.

Scientists assume an attitude of openness and accountability on the part of those conducting an experiment. Detailed record keeping is essential, to aid in recording and reporting on the experimental results, and providing evidence of the effectiveness and integrity of the procedure. They will also assist in reproducing the experimental results. Traces of this tradition can be seen in the work of Hipparchus (190–120 BCE), when determining a value for the precession of the Earth, while controlled experiments can be seen in the works of Muslim scientists such as Geber (721–815 CE), al-Battani (853–929) and Alhacen (965–1039).

DNA-experiments

Watson and Crick showed an initial (and incorrect) proposal for the structure of DNA to a team from Kings College – Rosalind Franklin, Maurice Wilkins, and Raymond Gosling. Franklin immediately spotted the flaws which concerned the water content. Later Watson saw Franklin’s detailed X-ray diffraction images which showed an X-shape and confirmed that the structure was helical[32][37]. This rekindled Watson and Crick’s model building and led to the correct structure…1. DNA-characterizations

Evaluation and iteration

Testing and improvement

The scientific process is iterative. At any stage it is possible that some consideration will lead the scientist to repeat an earlier part of the process. Failure to develop an interesting hypothesis may lead a scientist to re-define the subject they are considering. Failure of a hypothesis to produce interesting and testable predictions may lead to reconsideration of the hypothesis or of the definition of the subject. Failure of the experiment to produce interesting results may lead the scientist to reconsidering the experimental method, the hypothesis or the definition of the subject.

Other scientists may start their own research and enter the process at any stage. They might adopt the characterization and formulate their own hypothesis, or they might adopt the hypothesis and deduce their own predictions. Often the experiment is not done by the person who made the prediction and the characterization is based on experiments done by someone else. Published results of experiments can also serve as a hypothesis predicting their own reproducibility.

DNA-iterations

After considerable fruitless experimentation, being discouraged by their superior from continuing, and numerous false starts, Watson and Crick were able to infer the essential structure of DNA by concrete modeling of the physical shapes of the nucleotides which comprise it.[33][38] They were guided by the bond lengths which had been deduced by Linus Pauling and by Rosalind Franklin’s X-ray diffraction images… DNA Example

Confirmation

Science is a social enterprise, and scientific work tends to be accepted by the community when it has been confirmed. Crucially, experimental and theoretical results must be reproduced by others within the science community. Researchers have given their lives for this vision; Georg Wilhelm Richmann was killed by ball lightning (1753) when attempting to replicate the 1752 kite-flying experiment of Benjamin Franklin.[39]

To protect against bad science and fraudulent data, government research granting agencies like NSF and science journals like Nature and Science have a policy that researchers must archive their data and methods so other researchers can access it, test the data and methods and build on the research that has gone before. Scientific data archiving can be done at a number of national archives in the U.S. or in the World Data Center.

Models of scientific inquiry

Classical model

The classical model of scientific inquiry derives from Aristotle[40], who distinguished the forms of approximate and exact reasoning, set out the threefold scheme of abductive, deductive, and inductive inference, and also treated the compound forms such as reasoning by analogy.

Pragmatic model

Charles Peirce (1839–1914) considered scientific inquiry to be a species of the genus inquiry, which he defined as any means of fixing belief, that is, any means of arriving at a settled opinion on a matter in question. He observed that inquiry in general begins with a state of uncertainty and moves toward a state of certainty, sufficient at least to terminate the inquiry for the time being.

Peirce held that, in practical matters, slow and stumbling ratiocination is not generally to be automatically preferred over instinct and tradition, and held that scientific method is best suited to theoretical inquiry. What recommends the specifically scientific method of inquiry above all others is the fact that it is deliberately designed to arrive, eventually, at the ultimately most secure beliefs, upon which the most successful actions can eventually be based.[41] In 1877[42], he outlined four methods for the fixation of belief, the settlement of doubt, graded by their success in achieving a sound settlement of belief:

The method of tenacity — persisting in that which one is inclined to think.

The method of authority — conformity to a source of ready-made beliefs.

The method of congruity or the a priori or the dilettante or “what is agreeable to reason” — leading to argumentation that gets finally nowhere.

The scientific method.

Peirce characterized scientific method in terms of the uses of inference, and paid special attention to the generation of explanations. As a question of presuppositions of reasoning, he defined truth as the correspondence of a sign (in particular, a proposition) to its object and, pragmatically, not as any actual consensus of any finite community (i.e. such that to inquire would be to go ask the experts for the answers), but instead as that ideal final opinion which all reasonable scientific intelligences would reach, sooner or later but still inevitably, if they pushed investigation far enough[43].In tandem he defined the real as a true sign’s object (be that object a possibility or quality, or an actuality or brute fact, or a necessity or norm or law), which is what it is independently of any finite community’s opinion and, pragmatically, has dependence only on the ideal final opinion. That is an opinion as far or near as the truth itself to you or me or any finite community of minds. Thus his theory of inquiry boils down to “do the science”. He characterized the scientific method as follows[44]:

1. Abduction (or retroduction). Generation of explanatory hypothesis. From abduction, Peirce distinguishes induction as inferring, on the basis of tests, the proportion of truth in the hypothesis. Every inquiry, whether into ideas, brute facts, or norms and laws, arises as a result of surprising observations in the given realm or realms, and the pondering of the phenomenon in all its aspects in the attempt to resolve the wonder. All explanatory content of theories is reached by way of abduction, the most insecure among modes of inference. Induction as a process is far too slow for that job, so economy of research demands abduction, whose modicum of success depends on one’s being somehow attuned to nature, by dispositions learned and, some of them, likely inborn. Abduction has general justification inductively in that it works often enough and that nothing else works, at least not quickly enough when science is already properly rather slow, the work of indefinitely many generations. Peirce calls his pragmatism “the logic of abduction”[45]. His Pragmatic Maxim is: “Consider what effects that might conceivably have practical bearings you conceive the objects of your conception to have. Then, your conception of those effects is the whole of your conception of the object”[43]. His pragmatism is a method of sorting out conceptual confusions by equating the meaning of any concept with the conceivable practical consequences of whatever it is which the concept portrays. It is a method of experimentational mental reflection arriving at conceptions in terms of conceivable confirmatory and disconfirmatory circumstances — a method hospitable to the generation of explanatory hypotheses, and conducive to the employment and improvement of verification to test the truth of putative knowledge. Given abduction’s dependence on mental processes not necessarily conscious and deliberate but, in any case, attuned to nature, and given abduction’s being driven by the need to economize the inquiry process, its explanatory hypotheses should be optimally simple in the sense of “natural” (for which Peirce cites Galileo and which Peirce distinguishes from “logically simple”). Given abduction’s insecurity, it should have consequences with conceivable practical bearing leading at least to mental tests, and, in science, lending themselves to scientific testing.

2. Deduction. Analysis of hypothesis and deduction of its consequences in order to test the hypothesis. Two stages:

i. Explication. Logical analysis of the hypothesis in order to render it as distinct as possible.

ii. Demonstration (or deductive argumentation). Deduction of hypothesis’s consequence. Corollarial or, if needed, Theorematic.

3. Induction. The long-run validity of the rule of induction is deducible from the principle (presuppositional to reasoning in general[43]) that the real is only the object of the final opinion to which adequate investigation would lead[46] In other words, if there were something to which an inductive process involving ongoing tests or observations would never lead, then that thing would not be real. Three stages:

i. Classification. Classing objects of experience under general ideas.

ii. Probation (or direct Inductive Argumentation): Crude (the enumeration of instances) or Gradual (new estimate of proportion of truth in the hypothesis after each test). Gradual Induction is Qualitative or Quantitative; if Quantitative, then dependent on measurements, or on statistics, or on countings.

iii. Sentential Induction. “… which, by Inductive reasonings, appraises the different Probations singly, then their combinations, then makes self-appraisal of these very appraisals themselves, and passes final judgment on the whole result”[44].

Computational approaches

Many subspecialties of applied logic and computer science, such as artificial intelligence, machine learning, computational learning theory, inferential statistics, and knowledge representation, are concerned with setting out computational, logical, and statistical frameworks for the various types of inference involved in scientific inquiry. In particular, they contribute hypothesis formation, logical deduction, and empirical testing. Some of these applications draw on measures of complexity from algorithmic information theory to guide the making of predictions from prior distributions of experience, for example, see the complexity measure called the speed prior from which a computable strategy for optimal inductive reasoning can be derived.

Philosophy and sociology of science

Further information: Sociology of science

Philosophy of science looks at the underpinning logic of the scientific method, at what separates science from non-science, and the ethic that is implicit in science.

We find ourselves in a world that is not directly understandable. We find that we sometimes disagree with others as to the facts of the things we see in the world around us, and we find that there are things in the world that are at odds with our present understanding. The scientific method attempts to provide a way in which we can reach agreement and understanding. A „perfect” scientific method might work in such a way that rational application of the method would always result in agreement and understanding; a perfect method would arguably be algorithmic, and so not leave any room for rational agents to disagree. As with all philosophical topics, the search has been neither straightforward nor simple. Logical Positivist, empiricist, falsificationist, and other theories have claimed to give a definitive account of the logic of science, but each has in turn been criticized.

Thomas Samuel Kuhn examined the history of science in his The Structure of Scientific Revolutions, and found that the actual method used by scientists differed dramatically from the then-espoused method. His observations of science practice are essentially sociological and do not speak to how science is or can be practiced in other times and other cultures.

Imre Lakatos and Thomas Kuhn have done extensive work on the “theory laden” character of observation. Kuhn (1961) said the scientist generally has a theory in mind before designing and undertaking experiments so as to make empirical observations, and that the “route from theory to measurement can almost never be traveled backward”. This implies that the way in which theory is tested is dictated by the nature of the theory itself, which led Kuhn (1961, p. 166) to argue that “once it has been adopted by a profession… no theory is recognized to be testable by any quantitative tests that it has not already passed”.

Paul Feyerabend similarly examined the history of science, and was led to deny that science is genuinely a methodological process. In his book Against Method he argues that scientific progress is not the result of applying any particular method. In essence, he says that “anything goes”, by which he meant that for any specific methodology or norm of science, successful science has been done in violation of it. Criticisms such as his led to the strong programme, a radical approach to the sociology of science.

In his 1958 book, Personal Knowledge, chemist and philosopher Michael Polanyi (1891–1976) criticized the common view that the scientific method is purely objective and generates objective knowledge. Polanyi cast this view as a misunderstanding of the scientific method and of the nature of scientific inquiry, generally. He argued that scientists do and must follow personal passions in appraising facts and in determining which scientific questions to investigate. He concluded that a structure of liberty is essential for the advancement of science – that the freedom to pursue science for its own sake is a prerequisite for the production of knowledge through peer review and the scientific method.

The postmodernist critiques of science have themselves been the subject of intense controversy. This ongoing debate, known as the science wars, is the result of conflicting values and assumptions between the postmodernist and realist camps. Whereas postmodernists assert that scientific knowledge is simply another discourse (note that this term has special meaning in this context) and not representative of any form of fundamental truth, realists in the scientific community maintain that scientific knowledge does reveal real and fundamental truths about reality. Many books have been written by scientists which take on this problem and challenge the assertions of the postmodernists while defending science as a legitimate method of deriving truth.[47][48][49][50][51]

Communication, community, culture

Frequently the scientific method is not employed by a single person, but by several people cooperating directly or indirectly. Such cooperation can be regarded as one of the defining elements of a scientific community. Various techniques have been developed to ensure the integrity of the scientific method within such an environment.

Peer review evaluation

Scientific journals use a process of peer review, in which scientists’ manuscripts are submitted by editors of scientific journals to (usually one to three) fellow (usually anonymous) scientists familiar with the field for evaluation. The referees may or may not recommend publication, publication with suggested modifications, or, sometimes, publication in another journal. This serves to keep the scientific literature free of unscientific or crackpot work, helps to cut down on obvious errors, and generally otherwise improve the quality of the scientific literature.

Documentation and replication

Sometimes experimenters may make systematic errors during their experiments, unconsciously veer from the scientific method (Pathological science) for various reasons, or, in rare cases, deliberately falsify their results. Consequently, it is a common practice for other scientists to attempt to repeat the experiments in order to duplicate the results, thus further validating the hypothesis.

Archiving

As a result, researchers are expected to practice scientific data archiving in compliance with the policies of government funding agencies and scientific journals. Detailed records of their experimental procedures, raw data, statistical analyses and source code are preserved in order to provide evidence of the effectiveness and integrity of the procedure and assist in reproduction. These procedural records may also assist in the conception of new experiments to test the hypothesis, and may prove useful to engineers who might examine the potential practical applications of a discovery.

Data sharing

When additional information is needed before a study can be reproduced, the author of the study is expected to provide it promptly – although a small charge may apply. If the author refuses to share data, appeals can be made to the journal editors who published the study or to the institution who funded the research.

Limitations

Note that it is not possible for a scientist to record everything that took place in an experiment. He must select the facts he believes to be relevant to the experiment and report them. This may lead, unavoidably, to problems later if some supposedly irrelevant feature is questioned. For example, Heinrich Hertz did not report the size of the room used to test Maxwell’s equations, which later turned out to account for a small deviation in the results. The problem is that parts of the theory itself need to be assumed in order to select and report the experimental conditions. The observations are hence sometimes described as being „theory-laden”…

Dimensions of practice

Further information: Rhetoric of science

The primary constraints on contemporary western science are:

publication, i.e. Peer review

Resources (mostly funding)

It has not always been like this: in the old days of the “gentleman scientist” funding (and to a lesser extent publication) were far weaker constraints.

Both of these constraints indirectly bring in a scientific method — work that too obviously violates the constraints will be difficult to publish and difficult to get funded. Journals do not require submitted papers to conform to anything more specific than „good scientific practice” and this is mostly enforced by peer review. Originality, importance and interest are more important – see for example the author guidelines for Nature.

Criticisms (see Critical theory) of these restraints are that they are so nebulous in definition (e.g. „good scientific practice”) and open to ideological, or even political, manipulation apart from a rigorous practice of a scientific method, that they often serve to censor rather than promote scientific discovery. Apparent censorship through refusal to publish ideas unpopular with mainstream scientists (unpopular because of ideological reasons and/or because they seem to contradict long held scientific theories) has soured the popular perception of scientists as being neutral or seekers of truth and often denigrated popular perception of science as a whole.

History

See also: Timeline of the history of scientific method

The development of the scientific method is inseparable from the history of science itself. Ancient Egyptian documents, such as early papyri, describe methods of medical diagnosis. In ancient Greek culture, the method of empiricism was described. The first experimental scientific method was developed by Muslim scientists, who introduced the use of experimentation and quantification to distinguish between competing scientific theories set within a generally empirical orientation, which emerged with Alhazen’s optical experiments in his Book of Optics (1021).[52][53] The modern scientific method crystallized no later than in the 17th and 18th centuries. In his work Novum Organum (1620) — a reference to Aristotle’s Organon — Francis Bacon outlined a new system of logic to improve upon the old philosophical process of syllogism. Then, in 1637, René Descartes established the framework for a scientific method’s guiding principles in his treatise, Discourse on Method. The writings of Alhazen, Bacon and Descartes are considered critical in the historical development of the modern scientific method.

In the late 19th century, Charles Sanders Peirce proposed a schema that would turn out to have considerable influence in the development of current scientific method generally. Peirce accelerated the progress on several fronts. Firstly, speaking in broader context in “How to Make Our Ideas Clear” (1878), Peirce outlined an objectively verifiable method to test the truth of putative knowledge on a way that goes beyond mere foundational alternatives, focusing upon both deduction and induction. He thus placed induction and deduction in a complementary rather than competitive context (the latter of which had been the primary trend at least since David Hume, who wrote in the mid-to-late 18th century). Secondly, and of more direct importance to modern method, Peirce put forth the basic schema for hypothesis/testing that continues to prevail today. Extracting the theory of inquiry from its raw materials in classical logic, he refined it in parallel with the early development of symbolic logic to address the then-current problems in scientific reasoning. Peirce examined and articulated the three fundamental modes of reasoning that, as discussed above in this article, play a role in inquiry today, the processes that are currently known as abductive, deductive, and inductive inference. Thirdly, he played a major role in the progress of symbolic logic itself — indeed this was his primary specialty.

Karl Popper denied the existence of evidence[54] and of scientific method.[55] Popper holds that there is only one universal method, the negative method of trial and error. It covers not only all products of the human mind, including science, mathematics, philosophy, art and so on, but also the evolution of life.[56]

Relationship with mathematics

Science is the process of gathering, comparing, and evaluating proposed models against observables. A model can be a simulation, mathematical or chemical formula, or set of proposed steps. Science is like mathematics in that researchers in both disciplines can clearly distinguish what is known from what is unknown at each stage of discovery. Models, in both science and mathematics, need to be internally consistent and also ought to be falsifiable (capable of disproof). In mathematics, a statement need not yet be proven; at such a stage, that statement would be called a conjecture. But when a statement has attained mathematical proof, that statement gains a kind of immortality which is highly prized by mathematicians, and for which some mathematicians devote their lives[57].

Mathematical work and scientific work can inspire each other[58]. For example, the technical concept of time arose in science, and timelessness was a hallmark of a mathematical topic. But today, the Poincaré conjecture has been proven using time as a mathematical concept in which objects can flow (see Ricci flow).

Nevertheless, the connection between mathematics and reality (and so science to the extent it describes reality) remains obscure. Eugene Wigner’s paper, The Unreasonable Effectiveness of Mathematics in the Natural Sciences, is a very well-known account of the issue from a Nobel Prize physicist. In fact, some observers (including some well known mathematicians such as Gregory Chaitin, and others such as Lakoff and Nunez) have suggested that mathematics is the result of practitioner bias and human limitation (including cultural ones), somewhat like the post-modernist view of science.

George Pólya’s work on problem solving[59], the construction of mathematical proofs, and heuristic[60][61] show that mathematical method and scientific method differ in detail, while nevertheless resembling each other in using iterative or recursive steps.

Mathematical method Scientific method

1 Understanding Characterization from experience and observation

2 Analysis Hypothesis: a proposed explanation

3 Synthesis Deduction: prediction from the hypothesis

4 Review/Extend Test and experiment

In Pólya’s view, understanding involves restating unfamiliar definitions in your own words, resorting to geometrical figures, and questioning what we know and do not know already; analysis, which Pólya takes from Pappus[62], involves free and heuristic construction of plausible arguments, working backward from the goal, and devising a plan for constructing the proof; synthesis is the strict Euclidean exposition of step-by-step details[63] of the proof; review involves reconsidering and re-examining the result and the path taken to it.

Linguistics is the scientific[1][2] study of natural language.[3][4] Linguistics encompasses a number of sub-fields. An important topical division is between the study of language structure (grammar) and the study of meaning (semantics). Grammar encompasses morphology (the formation and composition of words), syntax (the rules that determine how words combine into phrases and sentences) and phonology (the study of sound systems and abstract sound units). Phonetics is a related branch of linguistics concerned with the actual properties of speech sounds (phones), non-speech sounds, and how they are produced and perceived. Other sub-disciplines of linguistics include: evolutionary linguistics which considers the origins of language; historical linguistics which explores language change; sociolinguistics which looks at the relation between linguistic variation and social structures; psycholinguistics which explores the representation and functioning of language in the mind; neurolinguistics which looks at the representation of language in the brain; language acquisition which considers how children acquire their first language and how children and adults acquire and learn their second and subsequent languages; in addition, discourse analysis and pragmatics concern the structure of texts and conversations, and their context.

Linguistics is narrowly defined as the scientific approach to the study of language, but language can, of course, be approached from a variety of directions, and a number of other intellectual disciplines are relevant to it and influence its study. Semiotics, for example, is a related field concerned with the general study of signs and symbols both in language and outside of it. Literary theorists study the use of language in artistic literature. Linguistics additionally draws on work from such diverse fields as psychology, speech-language pathology, informatics, computer science, philosophy, biology, human anatomy, neuroscience, sociology, anthropology, and acoustics.

Someone who engages in linguistics is called a linguist, although this term is also commonly used, outside linguistics, to refer to people who speak many languages.

Contents [hide]

1 Names for the discipline

2 Fundamental concerns and divisions

3 Variation and universality

4 Structures

5 Some selected sub-fields

5.1 Diachronic linguistics

5.2 Contextual linguistics

5.3 Applied linguistics

5.4 Linguistic analysis

6 Description and prescription

7 Speech and writing

8 History

9 Schools of Study

9.1 Generative Grammar

10 References

11 See also 12 External links

Names for the discipline

Before the twentieth century, the term „philology”, first attested in 1716,[5] was commonly used to refer to the science of language, which was then predominantly historical in focus.[6] Since Ferdinand de Saussure’s insistence on the importance of synchronic analysis, however, this focus has shifted[7] and the term „philology” is now generally used for the “study of a language’s grammar, history and literary tradition”, especially in the United States,[8] where it was never as popular as elsewhere in the sense of “science of language”.[5]

Although the term „linguist” in the sense of “a student of language” dates from 1641,[9] the term „linguistics” is first attested in 1847.[9] It is now the usual academic term in English for the scientific study of language.

Fundamental concerns and divisions

Linguistics concerns itself with describing and explaining the nature of human language. Relevant to this are the questions of what is universal to language, how language can vary, and how human beings come to know languages. All humans (setting aside extremely pathological cases) achieve competence in whatever language is spoken (or signed, in the case of signed languages) around them when growing up, with apparently little need for explicit conscious instruction. While non-humans acquire their own communication systems, they do not acquire human language in this way (although many non-human animals can learn to respond to language, or can even be trained to use it to a degree).[10] Therefore, linguists assume, the ability to acquire and use language is an innate, biologically-based potential of modern human beings, similar to the ability to walk. There is no consensus, however, as to the extent of this innate potential, or its domain-specificity (the degree to which such innate abilities are specific to language), with some theorists claiming that there is a very large set of highly abstract and specific binary settings coded into the human brain, while others claim that the ability to learn language is a product of general human cognition. It is, however, generally agreed that there are no strong genetic differences underlying the differences between languages: an individual will acquire whatever language(s) he or she is exposed to as a child, regardless of parentage or ethnic origin.[11]

Linguistic structures are pairings of meaning and form; such pairings are known as Saussurean signs. In this sense, form may consist of sound patterns, movements of the hands, written symbols, and so on. There are many sub-fields concerned with particular aspects of linguistic structure, ranging from those focused primarily on form to those focused primarily on meaning:

phonetics, the study of the physical properties of speech (or signed) production and perception

Phonology, the study of sounds (or signs) as discrete, abstract elements in the speaker’s mind that distinguish meaning

Morphology, the study of internal structures of words and how they can be modified

Syntax, the study of how words combine to form grammatical sentences

Semantics, the study of the meaning of words (lexical semantics) and fixed word combinations (phraseology), and how these combine to form the meanings of sentences

Pragmatics, the study of how utterances are used (literally, figuratively, or otherwise) in communicative acts

Discourse analysis, the analysis of language use in texts (spoken, written, or signed)

Many linguists would agree that these divisions overlap considerably, and the independent significance of each of these areas is not universally acknowledged. Regardless of any particular linguist’s position, each area has core concepts that foster significant scholarly inquiry and research.

Alongside these structurally-motivated domains of study are other fields of linguistics, distinguished by the kinds of non-linguistic factors that they consider:

Applied linguistics, the study of language-related issues applied in everyday life, notably language policies, planning, and education. (Constructed language fits under Applied linguistics.)

Biolinguistics, the study of natural as well as human-taught communication systems in animals, compared to human language.

Clinical linguistics, the application of linguistic theory to the field of Speech-Language Pathology.

Computational linguistics, the study of computational implementations of linguistic structures.

Developmental linguistics, the study of the development of linguistic ability in individuals, particularly the acquisition of language in childhood.

Evolutionary linguistics, the study of the origin and subsequent development of language by the human species.

Historical linguistics or diachronic linguistics, the study of language change over time.

Language geography, the study of the geographical distribution of languages and linguistic features.

Linguistic typology, the study of the common properties of diverse unrelated languages, properties that may, given sufficient attestation, be assumed to be innate to human language capacity.

Neurolinguistics, the study of the structures in the human brain that underlie grammar and communication.

Psycholinguistics, the study of the cognitive processes and representations underlying language use.

Sociolinguistics, the study of variation in language and its relationship with social factors.

Stylistics, the study of linguistic factors that place a discourse in context.

The related discipline of semiotics investigates the relationship between signs and what they signify. From the perspective of semiotics, language can be seen as a sign or symbol, with the world as its representation.

Variation and universality

Much modern linguistic research, particularly within the paradigm of generative grammar, has concerned itself with trying to account for differences between languages of the world. This has worked on the assumption that if human linguistic ability is narrowly constrained by human biology, then all languages must share certain fundamental properties.

In generativist theory, the collection of fundamental properties all languages share are referred to as universal grammar (UG). The specific characteristics of this universal grammar are a much debated topic. Typologists and non-generativist linguists usually refer simply to language universals, or universals of language.

Similarities between languages can have a number of different origins. In the simplest case, universal properties may be due to universal aspects of human experience. For example, all humans experience water, and all human languages have a word for water. Other similarities may be due to common descent: the Latin language spoken by the Ancient Romans developed into Spanish in Spain and Italian in Italy; similarities between Spanish and Italian are thus in many cases due to both being descended from Latin. In other cases, contact between languages — particularly where many speakers are bilingual — can lead to much borrowing of structures, as well as words. Similarity may also, of course, be due to coincidence. English much and Spanish mucho are not descended from the same form or borrowed from one language to the other;[12] nor is the similarity due to innate linguistic knowledge (see False cognate).

Arguments in favor of language universals have also come from documented cases of sign languages (such as Al-Sayyid Bedouin Sign Language) developing in communities of congenitally deaf people, independently of spoken language. The properties of these sign languages conform generally to many of the properties of spoken languages. Other known and suspected sign language isolates include Kata Kolok, Nicaraguan Sign Language, and Providence Island Sign Language.

Structures

Ferdinand de Saussure. It has been perceived that languages tend to be organized around grammatical categories such as noun and verb, nominative and accusative, or present and past, though, importantly, not exclusively so. The grammar of a language is organized around such fundamental categories, though many languages express the relationships between words and syntax in other discrete ways (cf. some Bantu languages for noun/verb relations, ergative-absolutive systems for case relations, several Native American languages for tense/aspect relations).

In addition to making substantial use of discrete categories, language has the important property that it organizes elements into recursive structures; this allows, for example, a noun phrase to contain another noun phrase (as in “the chimpanzee’s lips”) or a clause to contain a clause (as in “I think that it’s raining”). Though recursion in grammar was implicitly recognized much earlier (for example by Jespersen), the importance of this aspect of language became more popular after the 1957 publication of Noam Chomsky’s book Syntactic Structures,[13] which presented a formal grammar of a fragment of English. Prior to this, the most detailed descriptions of linguistic systems were of phonological or morphological systems.

Chomsky used a context-free grammar augmented with transformations. Since then, following the trend of Chomskyan linguistics, context-free grammars have been written for substantial fragments of various languages (for example GPSG, for English). It has been demonstrated, however, that human languages include cross-serial dependencies, which cannot be handled adequately by context-free grammars.

Some selected sub-fields

Diachronic linguistics

Studying languages at a particular point in time (usually the present) is “synchronic”, while diachronic linguistics examines how language changes through time, sometimes over centuries. It enjoys both a rich history and a strong theoretical foundation for the study of language change.

In universities in the United States, the historic perspective is often out of fashion. The shift in focus to a non-historic perspective started with Saussure and became predominant with Noam Chomsky.

Explicitly historical perspectives include historical-comparative linguistics and etymology.

Contextual linguistics

Contextual linguistics may include the study of linguistics in interaction with other academic disciplines. The interdisciplinary areas of linguistics consider how language interacts with the rest of the world.

Sociolinguistics, anthropological linguistics, and linguistic anthropology are seen as areas that bridge the gap between linguistics and society as a whole.

Psycholinguistics and neurolinguistics relate linguistics to the medical sciences.

Other cross-disciplinary areas of linguistics include evolutionary linguistics, computational linguistics and cognitive science.

Applied linguistics

Linguists are largely concerned with finding and describing the generalities and varieties both within particular languages and among all language. Applied linguistics takes the result of those findings and “applies” them to other areas. The term „applied linguistics” is often used to refer to the use of linguistic research in language teaching only, but results of linguistic research are used in many other areas as well, such as lexicography and translation. „Applied linguistics” has been argued to be something of a misnomer[who?], since applied linguists focus on making sense of and engineering solutions for real-world linguistic problems, not simply „applying” existing technical knowledge from linguistics; moreover, they commonly apply technical knowledge from multiple sources, such as sociology (e.g. conversation analysis) and anthropology.

Today, computers are widely used in many areas of applied linguistics. Speech synthesis and speech recognition use phonetic and phonemic knowledge to provide voice interfaces to computers. Applications of computational linguistics in machine translation, computer-assisted translation, and natural language processing are areas of applied linguistics which have come to the forefront. Their influence has had an effect on theories of syntax and semantics, as modeling syntactic and semantic theories on computers constraints.

Linguistic analysis

Linguistic analysis is used by many governments to verify the claimed nationality of people seeking asylum who do not hold the necessary documentation to prove their claim.[14] This often takes the form of an interview by personnel in an immigration department. Depending on the country, this interview is conducted in either the asylum seeker’s native language through an interpreter, or in an international langua franca like English.[14] Australia uses the former method, while Germany employs the latter; the Netherlands uses either method depending on the languages involved.[14] Tape recordings of the interview then undergo language analysis, which can be done by either private contractors or within a department of the government. In this analysis, linguistic features of the asylum seeker are used by analysts to make a determination about the speaker’s nationality. The reported findings of the linguistic analysis can play a critical role in the government’s decision on the refugee status of the asylum seeker.[14]

Description and prescription

Main articles: Descriptive linguistics, Linguistic prescription

Linguistics is descriptive; linguists describe and explain features of language without making subjective judgments on whether a particular feature is “right” or “wrong”. This is analogous to practice in other sciences: a zoologist studies the animal kingdom without making subjective judgments on whether a particular animal is better or worse than another.

Prescription, on the other hand, is an attempt to promote particular linguistic usages over others, often favouring a particular dialect or “acrolect”. This may have the aim of establishing a linguistic standard, which can aid communication over large geographical areas. It may also, however, be an attempt by speakers of one language or dialect to exert influence over speakers of other languages or dialects (see Linguistic imperialism). An extreme version of prescriptivism can be found among censors, who attempt to eradicate words and structures which they consider to be destructive to society.

Speech and writing

Most contemporary linguists work under the assumption that spoken (or signed) language is more fundamental than written language. This is because:

Speech appears to be universal to all human beings capable of producing and hearing it, while there have been many cultures and speech communities that lack written communication;

Speech evolved before human beings invented writing;

people learn to speak and process spoken languages more easily and much earlier than writing;

Linguists nonetheless agree that the study of written language can be worthwhile and valuable. For research that relies on corpus linguistics and computational linguistics, written language is often much more convenient for processing large amounts of linguistic data. Large corpora of spoken language are difficult to create and hard to find, and are typically transcribed and written. Additionally, linguists have turned to text-based discourse occurring in various formats of computer-mediated communication as a viable site for linguistic inquiry.

The study of writing systems themselves is in any case considered a branch of linguistics.

History

Some of the earliest linguistic activities can be recalled from Iron Age India with the analysis of Sanskrit. The Pratishakhyas (from ca. the 8th century BC) constitute as it were a proto-linguistic ad hoc collection of observations about mutations to a given corpus particular to a given Vedic school. Systematic study of these texts gives rise to the Vedanga discipline of Vyakarana, the earliest surviving account of which is the work of Panini (c. 520–460 BC), who, however, looks back on what are probably several generations of grammarians, whose opinions he occasionally refers to. Panini formulates close to 4,000 rules which together form a compact generative grammar of Sanskrit. Inherent in his analytic approach are the concepts of the phoneme, the morpheme and the root. Due to its focus on brevity, his grammar has a highly unintuitive structure, reminiscent of contemporary „machine language” (as opposed to „human readable” programming languages).

Indian linguistics maintained a high level for several centuries; Patanjali in the 2nd century BC still actively criticizes Panini. In the later centuries BC, however, Panini’s grammar came to be seen as prescriptive, and commentators came to be fully dependent on it. Bhartrihari (c. 450–510) theorized the act of speech as being made up of four stages: first, conceptualization of an idea, second, its verbalization and sequencing (articulation) and third, delivery of speech into atmospheric air, the interpretation of speech by the listener, the interpreter.

Western linguistics begins in Classical Antiquity with grammatical speculation such as Plato’s Cratylus. The first important advancement of the Greeks was the creation of the alphabet. As a result of the introduction of writing, poetry such as the Homeric poems became written and several editions were created and commented, forming the basis of philology and critic. The sophists and Socrates introduced dialectics as a new text genre. Aristotle defined the logic of speech and the argument. Furthermore Aristotle works on rhetoric and poetics were of utmost importance for the understating of tragedy, poetry, public discussions etc. as text genres.

One of the greatest of the Greek grammarians was Apollonius Dyscolus.[15] Apollonius wrote more than thirty treatises on questions of syntax, semantics, morphology, prosody, orthography, dialectology, and more. In the 4th c., Aelius Donatus compiled the Latin grammar Ars Grammatica that was to be the defining school text through the Middle Ages.[16] In De vulgari eloquentia („On the Eloquence of Vernacular”), Dante Alighieri expanded the scope of linguistic enquiry from the traditional languages of antiquity to include the language of the day.

In the Middle East, the Persian linguist Sibawayh made a detailed and professional description of Arabic in 760, in his monumental work, Al-kitab fi al-nahw (?????? ?? ?????, The Book on Grammar), bringing many linguistic aspects of language to light. In his book he distinguished phonetics from phonology.

Sir William Jones noted that Sanskrit shared many common features with classical Latin and Greek, notably verb roots and grammatical structures, such as the case system. This led to the theory that all languages sprung from a common source and to the discovery of the Indo-European language family. He began the study of comparative linguistics, which would uncover more language families and branches.

In 19th century Europe the study of linguistics was largely from the perspective of philology (or historical linguistics). Some early-19th-century linguists were Jakob Grimm, who devised a principle of consonantal shifts in pronunciation – known as Grimm’s Law – in 1822; Karl Verner, who formulated Verner’s Law; August Schleicher, who created the “Stammbaumtheorie” („family tree”); and Johannes Schmidt, who developed the “Wellentheorie” („wave model”) in 1872.

Ferdinand de Saussure was the founder of modern structural linguistics, with an emphasis on synchronic (i.e. non-historical) explanations for language form.

In North America, the structuralist tradition grew out of a combination of missionary linguistics (whose goal was to translate the bible) and Anthropology. While originally regarded as a sub-field of anthropology in the United States[17][18], linguistics is now considered a separate scientific discipline in the US, Australia and much of Europe.

Edward Sapir, a leader in American structural linguistics, was one of the first who explored the relations between language studies and anthropology. His methodology had strong influence on all his successors. Noam Chomsky’s formal model of language, transformational-generative grammar, developed under the influence of his teacher Zellig Harris, who was in turn strongly influenced by Leonard Bloomfield, has been the dominant model since the 1960s.

The structural linguistics period was largely superseded in North America by generative grammar in the 1950s and 60s. This paradigm views language as a mental object, and emphasizes the role of the formal modeling of universal and language specific rules. Noam Chomsky remains an important but controversial linguistic figure. Generative grammar gave rise to such frameworks such as Transformational grammar, Generative Semantics, Relational Grammar, Generalized Phrase-structure Grammar, Head-Driven Phrase Structure Grammar (HPSG) and Lexical Functional Grammar (LFG). Other linguists working in Optimality Theory state generalizations in terms of violable constraints that interact with each other, and abandon the traditional rule-based formalism first pioneered by early work in generativist linguistics.

Functionalist linguists working in functional grammar and Cognitive Linguistics tend to stress the non-autonomy of linguistic knowledge and the non-universality of linguistic structures, thus differing significantly from the Chomskyan school. They reject Chomskyan intuitive introspection as a scientific method, relying instead on typological evidence.

Schools of Study

There are a wide variety of approaches to linguistic study. These can be loosely divided (although not without controversy) into formalist and functionalist approaches. Formalist approaches stress the importance of linguistic forms, and seek explanations for the structure of language from within the linguistic system itself. For example, the fact that language shows recursion might be attributed to recursive rules. Functionalist linguists by contrast view the structure of language as being driven by its function. For example, the fact that languages often put topical information first in the sentence, may be due to a communicative need to pair old information with new information in discourse.

Generative Grammar

Over the twentieth century, following the work of Noam Chomsky, formal linguistics came to be dominated by the Generativist school. While formulated by Chomsky as a way to explain how human beings acquire language and the biological constraints on this acquisition, its application to natural languages rarely explores that aspect of the theory. Generative theory is modularist in character. While this remains the dominant paradigm,[19] Chomsky’s writings have also gathered much criticism.

Nauka i sztuka. Dwa niezwykle rozległe pojęcia. Z pozoru różne, bez jakichkolwiek powiązań. Tylko dogłębna analiza pozwala nam zauważyć cechy wspólne, a także różne nauki i sztuki.

Nauka i sztuka to dwa sposoby poznawania i rozumienia świata. Ta pierwsza ma za zadanie wyjaśnić przyczyny i formułować twierdzenia na temat skutków. Podstawowymi pytaniami nauki są: Jak? W jaki sposób? Dlaczego? To dzięki nim poznaliśmy większość zasad istnienia i funkcjonowania świata. Bazuje ona na obserwacji natury, która stanowi podstawę rzeczywistości.

Nauka rodzi się z potrzeby podzielenia własnymi odkryciami, a sztuka wynika z chęci uzewnętrznienia własnych uczuć

Sztuka daje człowiekowi odpowiednie doznania estetyczne, które w naturze jest ciężko znaleźć. W przeciwieństwie do nauki sztuka nie opiera się na obserwacjach natury. W tej dziedzinie nie ważne jest, dlaczego tak, a nie inaczej wszystko funkcjonuje. Sztuka naśladuje rzeczywistość, od czasu do czasu robiąc pewne wyjątki. Przedstawia to, co człowiekowi się podoba, do czego tak naprawdę wszyscy dążymy.

Nauka opiera się na obiektywizmie. Eliminuje błędy nie związane ze zjawiskiem, dąży do opisu i wyjaśnienia świata takiego jakim jest, a nie jakim go widzi konkretny obserwator. W sztuce jest zaś odwrotnie. Każdy element wytworzony przez jakiegoś artystę postrzegamy na jego własny, subiektywny sposób. Sztuka nie odwzorowuje dokładnie świata. Widzimy tylko to, co zobaczyć chcemy.

Nauka

„Nauka coraz bardziej poszerza krąg naszej niewiedzy”

Andrzej Majewski

Nauka obejmuje wiele zagadnień m.in. fizykę, chemię, matematykę, techniki obliczeniowe, agronomię, geologię, mineralogię. Ścisłe powiązanie z nauką wykazuje technika.

Technika to praktyczne zastosowanie osiągnięć naukowych m.in. w inżynierii i przetwórstwie, transporcie, łączności i mediach.

W nauce mówi się również o zagadnieniach związanych z astronomią, naukami o Ziemi i o życiu.

Ważniejsze odkrycia naukowe otwierają teorie filozoficzne starożytnych Greków, zamykają go zaś wiadomości dotyczące kwarków i pierwiastków transuranowych.

Obecne zastosowanie nauki dotyczy dwóch głównych dziedzin działalności człowieka. Pierwsza z nich to transport i komunikacja. Druga to technika i inżynieria, łącznie z technologiami wytwarzania maszyn i szeregu mechanizmów, począwszy od bezpiecznych agrafek, a skończywszy na wiszących mostach.

Określenie negatywnej jak i pozytywnej stronie wytworów nauki decyduje sposób ich wykorzystania. Najróżniejsze badania prowadzą do powstawania coraz to nowszych innowacji w inżynierii. Wynalazki są wykorzystywanie w życiu codziennym podnosząc jego jakość, ułatwiając je jak najbardziej się da. Badania naukowe skutkują rozwojem medycyny. Rozpoznajemy już znaczną ilość chorób, wiemy, jakich leków użyć, co wyciąć, a co ‘wkleić’, by uratować ludzkie istnienie. Jednak rozwój nauki może mieć również skutki negatywne. Powstają nowe rodzaje śmiercionośnych broni.

Osiągnięcia nauki oraz obraz świata, który ona buduje, stały się częścią kultury masowej. Ludzie z jednej strony wierzą we wszechmoc nauki, ale z drugiej strony obawiają się negatywnych skutków, zastosowania jej w złym celu. Naukowiec budzi szacunek jako osoba starająca się obiektywnie spoglądać na rzeczywistość. Jednocześnie istnieje także negatywny stereotyp szalonego badacza w poplamionym fartuchu, który w mrocznym laboratorium przeprowadza podejrzane eksperymenty, aby odkryć kolejną tajemnicę natury.

Nieprawdą jest, że młodzi ludzie są w stanie korzystać z dobrodziejstw techniki, lecz zaginęła w nich pasja i miłość, i umiejętność twórczego ich przekształcania. Ponadto grafika komputerowa, może to ukazać w najlepszy sposób. Dlaczego? Znajduje się w punkcie styku: człowieka i technologii, kultury i cywilizacji, sztuki czystej i użytkowej, twórczego szału i systemu zerojedynkowego. W równym stopniu odwołuje się do Madonny i rocka, jak do Goi i abstrakcyjnego ekspresjonizmu. Od użytkownika zależy, w którą stroną podąży w swoich poszukiwaniach. Ile wyciągnie dla swojego rozwoju z jednej i z drugiej strony.

Sztuka

Świat bez sztuki naraża się na to, że będzie światem zamkniętym na miłość.

Jan Paweł II

Sztuka definiowana jest m.in. jako twórczość artystyczna, której wytworami są dzieła z zakresu literatury, muzyki, malarstwa itp. Dzieła te muszą spełniać pewne wymogi harmonii, czy estetyki, by można było o nich mówić, że stanowią dorobek kultury.

Sztuka jak wszystko inne na Ziemi pełni swoją funkcję. Daje coś odbiorcy, uczy go, poszerza horyzonty, czy nawet łączy ludzi. Sztuka wywołuje swoiste przeżycia estetyczne. Budzi zachwyt, zgorszenie, smutek, radość.

Wskazuje ona na normy i wzorce postępowania – wychowuje i uczy. odbiorca poznaje nie tylko dzieło ale też historię przodków, poprzez dzieła może się „przenieść” do świata ówczesnego.

Dzieła sztuki pobudzają uczucia; muzyka, obrazy, rzeźby, architektura służą religii, ale też czerpią z niej tematykę swoich dzieł; Bogu, mitologii greckiej były poświęcone liczne dzieła : Dawid Michała Anioła, Freski z Kaplicy Sykstyńskiej, Ostatnia wieczerza – Leonarda da Vinci.

Artysta przez swe dzieło porozumiewa się z odbiorcą.

Sztuka leczy, katharsis – oczyszczenie psychiki (muzykoterapia, poezjoterapia, wideoterapia, biblioterapia, filmoterapia, chromatoterapia, dramoterapia, ludoterapia, choteoterapia),

Wspominając o tańcu i muzyce sztuka pełni jeszcze jedną funkcję – emocjonalną, pozwala się rozprężyć i odstresować.

Sztuka integruje i wykazuje przynależność do pewnej grupy społecznej (lekarze, harcerze, muzycy, Polacy). Pomaga zachować tożsamość kulturową narodom.

Sztuką posługujemy się na co dzień, są nią: rzemiosło, architektura, przedmioty codziennego użytku, ale także satyra, muzyka taneczna,

Nauka, a sztuka

Nie istnieje nic takiego, czego by sztuka nie mogła wyrazić (…).

Zaletą nauki jest to, że wcale nie budzi uczuć.

Oscar Wilde

Teraz należy zmierzyć się z zagadnieniem przenikania światów nauki i sztuki.

Temat „Nauka jako inspiracja dla sztuki” jest w dzisiejszych czasach, tak mocno stechnicyzowanych, bardzo aktualny. Ma szansę stać się pretekstem do głębszych przemyśleń nad relacją cywilizacji i kultury. Prawdą jest twierdzenie, że artyści inspirowali się dokonaniami naukowymi. By nie wybiegać zanadto w przeszłość wystarczy przypomnieć geniuszy renesansu z Leonardem na czele. Rembrandt uwiecznił lekcję anatomii, a impresjonizm nie mógłby się narodzić bez odkryć z zakresu optyki. Wielka część XX-wiecznej sztuki toczy zażyły dyskurs z nauką: kubizm, futuryzm, abstrakcja geometryczna, pop-art, konceptualizm… itd.

KUBIZM

W całej historii malarstwa nie było innego tak intensywnego zerwania z osiągnięciami sztuki, jak to dokonane przez kubistów.

Przede wszystkim, do tej pory malarstwo miało iluzorycznie odzwierciedlać rzeczywistość – wywoływać na płótnie wrażenie „jak żywej” natury. Kubistom zaś zależało na zdefiniowaniu rzeczywistości, wydobyciu „stereometrycznej struktury przedmiotów”. Aby to osiągnąć, stosowali geometryzację, syntezę i odrzucenie perspektywy. W dużym skrócie, można powiedzieć, że dana, widziana forma zostawała najpierw zgeometryzowana (czyli wpisana w kształt sześcianu – z łac. cubus), a następnie rozbita na mniejsze elementy walców, stożków, kul itp.

U podstaw kubizmu leży zasada, że obiekt malarski zostaje rozbity na szereg osobnych płaszczyzn, oglądanych w różnym oświetleniu, które następnie są przedstawiane obok siebie na płótnie. Dawało to pełniejszy obraz analizowanego obiektu. Choć najsłynniejsze obrazy kubistyczne (jak „Panny z Avinionu”) pokazują postacie ludzkie, generalnie głównym tematem były tu martwe natury.

FUTURYZM

Artyści futuryści uznali, że źródłem inspiracji sztuki powinna być nowoczesna, mechaniczna cywilizacja początku XX wieku ze swymi fascynującymi osiągnięciami technicznymi.

Artyści powinni czerpać natchnienie z cudów współczesnego świata – żelaznej sieci szybkiej kolei, która oplata Ziemię, z transatlantyków przemierzających oceany i samolotów, które prują niebo, z walki o podbój nieznanego.

Dawnej sztuce futuryści przeciwstawili sztukę przyszłości, zdolną oddać dynamizm współczesnego życia, jego tempo i rytm. Głosili kult szybkości, pędu, maszyny. Heroizowali gorączkowy zgiełk wielkiego miasta.

Entuzjastyczny i idealistyczny program futurystów upatrywał w urbanizacji i mechanizacji przyszłego szczęścia ludzkości. Sztuka zdaniem futurystów winna czerpać natchnienie z bezpośredniego kontaktu ze współczesnym światem.

W ramach tej zafascynowanej techniką estetyki samochód, prawdziwe ucieleśnienie szybkości, stał się symbolem nowoczesności.

ABSTRAKCJA GEOMETRYCZNA

Abstrakcja geometryczna powstała w konsekwencji zapoczątkowanego pod koniec XIX w. kryzysu tradycyjnej sztuki mimetycznej, wywołanego z kolei przemianami społecznymi i wynalazkiem fotografii.

Pomimo że za ramy czasowe abstrakcji uważa się lata 1945-1955, to już w 1915 Malewicz wydał swój manifest suprematyzmu – jak też nazywa swoje malarstwo. Również Piet Mondrian od 1911 zaczynał malować abstrakcyjnie, co w końcu pozwoliło mu dojść do kompozycji przedstawiających kwadraty i białe linie.

W latach 1918-1939 dominowała abstrakcja geometryczna. Na gruncie sztuki abstrakcyjnej powstały idee powiązania malarstwa z innymi sztukami plastycznymi, rozwijało się nowe pojecie jedności stylowej, kwitła twórczość teoretyczna.

POP-ART

To właśnie zachodnie mechanizmy reklamy miały największy wpływ na ukształtowanie się pop-artu. Styl ten czerpał z surrealizmu, co widać m.in. w paradoksalnych zestawieniach, komiksów, przenosząc je na płótna, jak i naturalizmu, przedstawiając niekiedy przedmioty codziennego użytku z niezwykłą dokładnością.

Wyróżniał się on nieograniczoną swobodą twórczą, dążącą do zobrazowania cywilizacji wielkomiejskiej i jej kultury masowej. Początkowo wyrażał się za pomocą malarstwa, z czasem zaczął wykorzystywać inne środki plastyczne tworząc aranżacje przestrzenne, instalacje, które bez odpowiednich teorii naukowych byłyby niemożliwe do wykonania.

KONCEPTUALIZM

Konceptualizm jest kierunkiem w sztuce nowoczesnej, którego początki sięgają lat 60. W Nowym Jorku zaczął kształtować się styl, który był odpowiedzią na formalną i dekoracyjną estetykę minimalizmu, oraz na sam przedmiot, który odgrywa pierwszoplanową, najważniejszą rolę w pop-arcie.

Pierwszą definicję konceptualizmu sformułował R. Atkins, który uznał, że kierunek ten polega na „sprowadzeniu sztuki do czystych idei, w które nie ingeruje żadne rzemiosło artystyczne”. Oznaczało to, że artyści konceptualni dają pierwszeństwo idei i jej transpozycji na dzieło sztuki. Konceptualiści starali się odejść od klasycznych form takich jak rzeźba czy obraz, ale jednocześnie ich nie wykluczano.

Uważano, iż nie jest ważne samo dzieło sztuki, większą rolę przykładano do samego procesu twórczego, a swoje prace prezentowano w formie filmów, fotografii, inscenizacji, happeningów, performance-ów, płócien wraz z zapisami słownymi lub matematycznymi wzorami mającymi wyrażać jakąś myśl. Przykładem jest koncepcja J. Dibetsa (1941-) – seria zdjęć przesuwającego się po podłodze promienia słonecznego. Rewolucja konceptualna lat 60. nie polegała jednak na zastąpieniu jednej techniki drugą, czyli malarstwa – akcją lub filmem i fotografią. Polegała na zastąpieniu sztuki jako przedmiotu, sztuką jako ideą. W tej koncepcji postać materialna dzieła jest drugoplanowa, a wszystkie techniki artystyczne są równorzędne, także malarstwo.

Konceptualizm wyciągnął najradykalniejsze konsekwencje z procesu dematerializacji i deestetyzacji sztuki zainicjowanego przez awangardę na początku XX wieku. Jako prekursorów można wymienić wielu artystów awangardy zainteresowanych maksymalną intelektualizacją sztuki, m.in. László Moholy-Nagy, Kurt Schwitters, Piet Mondrian, Kazimierz Malewicz itd. Ta intelektualizacja sztuki miała związek z… nauką!

Konceptualizm jest zwieńczeniem procesu budowania samoświadomości sztuki.


Cele stosowania przypisów:

3. Definicje nauki

3.1. Nauka to społeczna działalność ludzi mająca na celu obiektywne poznanie rzeczywistości.

3.2. Nauka jest formą świadomości społecznej, która odzwierciedla prawdziwie w sposób zamierzony i metodyczny obiektywne cechy i prawidłowości rzeczywistości przyrodniczej i społecznej.

3.3. Nauka to uporządkowana wiedza o człowieku, społeczeństwie i kosmosie, prawidłowościach i swoistości rzeczywistości, o sposobach rozpoznawania i przekształcania.

4. Różne rozumienie pojęcia nauka

Rozumienie nauki:

4.1. rozumienie dydaktyczne: proces nauczania i uczenia się

4.2. rozumienie funkcjonalne: działalność badawcza, która wyraża się m.in. poprzez stawianie hipotez objaśniających zależności, związki oddziaływania rzeczywistości, objaśnianie świata, formułowanie pojęć, odkrywanie prawidłowości

4.3. rozumienie kulturowe/ historyczno socjologiczne: wytwory działalności badawczej

4.4. rozumienie instytucjonalne: ład organizacyjno – porządkowy w sensie przedmiotowym, dziedziną dyscyplin, specjalności w sensie organizacyjnym. Są to instytucje badawcze, uczelnie, placówki edukacyjne, kulturalne.

6.Różnice między wiedzą a nauką:

Wiedza jest zbiorem wiadomości osiągniętych obojętnie jakim sposobem, cechy wiedzy:

Przypadkowość doboru spostrzeżeń i wiadomości

Niepełny krytycyzm wynikający z niesprawdzonych sądów empirycznych

Brak krytycznej analizy zebranych wiadomości

Brak systematyczności, luźne powiązanie opinii często zupełnie przypadkowych

Nauka jest wiedzą uporządkowaną, naukę wyróżnia sposób zdobywania wiadomości jako systematyczny dobór, planowość, sposoby uzasadnień, metodyczność.

Zasadnicza różnica między wiedzą pospolitą a naukową dotyczy sposobu zdobywania wiadomości. O ile wiedzę pospolitą można zdobyć w różny sposób, o tyle naukę jedynie przez właściwy dla niej, metodyczny sposób zdobywania wiadomości wg naukowych reguł.

Pojęcie wiedzy jest pojęciem szerszym od nauki, nie każda wiedza jest nauką, ale każda nauka jest wiedzą!

7. Praktyka a nauka:

Praktyka – świadoma i celowa działalność ludzka, zmierzająca do przemian w przyrodzie, technice i stosunkach społeczno-gospodarczych.

Praktyka ma dla nauki znaczenie inspirujące, ilustrujące i weryfikujące.

Nauka ma na celu poznanie, praktyka – utylitaryzm.

Celem nauki jest poznanie obiektywnej prawdy o świecie, posiadanie skutecznych, tanich, szybko działających norm postępowania.

8. 9. 10. Podział nauki:

10.1. formalne i empiryczne

Podział na nauki inaczej dedukcyjne, racjonalne lub matematyczne i na nauki empiryczne inaczej indukcyjne, realne stosuje się ze względu na sposoby wnioskowania. Nauki formalne nie muszą odwoływać się do doświadczenia, np.: logika, filozofia, matematyka, etyka. Wykorzystuje się w nich głównie dedukcyjną. Nauki empiryczne opierają się na doświadczeniu. Korzysta się w nich z indukcji, są to np.: fizyka, chemia, ekonomia, prawo.

10.2. przyrodnicze i humanistyczne

Podział nauki na przyrodnicze i humanistyczne stosuje się na podstawie zakresu badań właściwych dla nich metod badawczych. W naukach przyrodniczych bada się przyrodę martwą i żywą, środowisko geograficzne, istoty żywe w tym człowieka od strony struktury fizycznej, np.: geografia, geologia, chemia, botanika, antropologia, medycyna, astronomia. W naukach humanistycznych bada się strukturę i funkcje dziejowe społeczeństwa, kulturę, prawa i prawidłowości jego rozwoju. Są to np.: archeologia, historia, socjologia, pedagogika, psychologia, politologia, prawo i ekonomia.

10.3. teoretyczne i praktyczne

Ze względu na zadania wyodrębnia się nauki teoretyczne (czyste podstawowe), których zadanie sprowadza się do obiektywnego poznania i wyjaśnienia rzeczywistości oraz przewidywania zachodzących w niej przemian oraz nauki praktyczne (stosowane) mające na celu określenie sposobów praktycznego zastosowania poznanych praw naukowych do dalszego rozwoju i przekształcania rzeczywistości.

11. Dyscypliny naukowe i specjalności:

To gałęzie nauki. Wyodrębnienie na podstawie przedmiotu nauki ściśle wyodrębnionego przedmiotu badań, właściwych metod i przedmiotów badawczych oraz środków działania.

W ramach dyscyplin naukowych wyróżnia się specjalności. Wyodrębnia się je na podstawie ściśle określonego okresu badawczego właściwych źródeł i metod badawczych oraz środków działania.

12. Zadania nauki:

12.1. wyjaśnianie pojęć (semiotyka)

12.2. gromadzenie i systematyzowanie wiedzy o świecie

12.3. rozpoznawanie prawidłowości w nim rządzących, interpretacja faktów, zjawisk, procesów dotyczących przyrody, społeczeństwa, człowieka

Zadania nauki mogą dotyczyć procesów ogólnych lub zdarzeń szczegółowych. Sformułowane prawa naukowe mogą być wykorzystane do kształtowania życia bieżącego, a także do przewidywania przyszłości.

13. Cele nauki:

Funkcje społeczne nauki:

13.1. diagnostyczna oznacza dostarczanie wiedzy o stanie rzeczy w danym fragmencie czy aspekcie rzeczywistości

13.2. prognostyczna dostarcza wiedzy o ogólnych prawidłowościach przebiegu zjawisk danego typu pozwalające przewidywać przyszłe konsekwencje ich rozwoju

13.3. instrumentalno-techniczna oznacza dostarczanie wiedzy o sposobach i środkach realizacji zamierzonych celów. O sprawności i efektywności postępowania naukowego.

13.4. humanistyczna zaspokaja intelektualne potrzeby ludzi w zakresie poznania rzeczywistości (dostarczenie podstaw do kształtowania racjonalnego poglądu na świat).

14. Istota politologii.

Politologia jest jedną z dyscyplin naukowych nauka humanistycznych i społecznych. Przedmiotem jej poznania jest polityka. Polityka to działalność społeczna związana z dążeniem do wykonywania, zdobywania władzy wewnątrz państwa oraz w stosunkach międzypaństwowych. Przedmiotem poznania politologii jest działalność państwa, partii politycznych, ogół zjawisk i stosunków związanych ze zdobyciem, utrzymaniem i wykorzystaniem władzy.

15. Przedmiot politologii:

Przedmiotem politologii jest badanie zjawisk i procesów politycznych zawsze w odniesieniu do konkretnej rzeczywistości, do empirycznego ich kształtowania, wykrycie prawidłowości i przewidywanie ukształtowania się przyszłości. Przedmiot zainteresowania poznawczego politologii wyznaczają:

16. Zadania politologii.

Zadaniem politologii jest kompleksowe ujmowanie badanych zagadnień w ich wzajemnych uwarunkowaniach, wskazywanie na powiązania wewnątrz podsystemów i między nimi, a także w całokształcie systemu politycznego, który jest przedmiotem analizy.

Zadaniem politologii jako dyscypliny naukowej jest w drodze rzetelnej analizy uwzględniającej prawidłowe zastosowanie metodologii badawczej ustalenie występujących prawidłowości i spoistości procesów i zjawisk politycznych, określanie źródeł sprzeczności i możliwości występowania konfliktów społecznych, przyczyn takiego a nie innego kształtowania zjawisk i procesów oraz ustalenie przewidywań na przyszłość.

W szczególności zadania politologii to:

17. Uwarunkowanie prowadzenia badań politologicznych.

Istotną cechą poznania politologicznego jest potrzeba ujęć systemowych. W badaniach nie można ujmować rzeczywistości politycznej statycznie, trzeba dążyć do wykrywania prawidłowości w nowych zjawiskach, zarysowujących się procesach, analizować przemiany i przeobrażenia zachodzące pod wpływem funkcjonowania systemów politycznych wraz z ich podsystemami. Dostrzegać należy zarówno pozytywne jak i negatywne skutki podejmowania w danym państwie lub w skali międzynarodowej decyzji politycznych. W badaniach politologicznych trzeba uwzględniać ustawicznie zmieniającą się rzeczywistość w różnego rodzaju powiązaniach, poczynając od stosunkowo prostych, przechodząc do coraz bardziej skomplikowanych, dochodząc w końcowym rezultacie do próby oceny całości funkcjonowania systemu politycznego w danym państwie z uwzględnieniem powiązań międzynarodowych i politycznych w skali światowej.

18. Funkcje politologii:

19.Słabość politologii.

Podobnie jak u wszystkich nauk o społeczeństwie jest jej indukcyjne pochodzenie sprawiające, że między tym, co jest lub co było, a tym, co powinno być nie ma żadnego koniecznego, logicznego, automatycznego związku wynikania. Z tego powodu, jeżeli patrzeć na politologię pod kątem skuteczności, możliwości przewidywania, a więc oddziaływania na zjawiska należy zauważyć, że nie może ona sprostać pożądanym oczekiwaniom.

20. Materiały źródłowe.

Podstawę poznania politologicznego stanowią materiały źródłowe. Dostarczają one określonych informacji nazywanych wiedzą źródłową. Są nimi wytwory działalności politycznej, społecznej i kulturowej społeczeństwa. Zalicza się do nich wszelkie dokumenty, akta, statuty, inwentarze, protokoły, sprawozdania, stenogramy, kroniki, pamiętniki, wspomnienia, informacje prasowe. Z punktu widzenia poznania politologicznego źródłem jest każdy utrwalony i zachowany ślad myśli, działania oraz aktywności ludzkiej służący do jego deskrypcji, eksplanacji oraz przewidywania związanej z nim rzeczywistości politycznej. Jest nim wszelka informacja o rzeczywistości społeczno-politycznej, gdziekolwiek ona się znajduje.

21. Klasyfikacja źródeł

Wyróżnia się 3 podstawowe formy źródeł:

1. ustne – to np. anegdoty polityczne, przysłowia, fraszki, bajki, legendy, opowiadania, pieśni, sagi

2. pisemne – to archiwalia, dokumenty urzędowe, protokoły, noty, zapiski, korespondencje, dzienniki, doniesienia i materiały prasowe oraz czasopiśmiennicze, pamiętniki, wspomnienia, autobiografie

3. obrazowe – to pomniki, rzeźby, mapy, plany, karykatury, filmy

22. Źródła pisemne

Źródła pisemne uznaje się za najcenniejsze, podstawowe i najbardziej wiarygodne świadectwa rzeczywistości w poznaniu naukowym. Dzieli się na:

Źródła pisemne dzieli się również na:

23. Krytyka źródeł.

W pracy badawczej istotnym zadaniem jest określenie pochodzenia źródła, jego autentyczności i wiarygodności. Całość czynności związanych z rozpoznawaniem źródła określa się jako krytykę cech zewnętrzną i wewnętrzną.

Fundamentalną cechą krytyki wewnętrznej i zewnętrznej jest ustalenie jego przydatności do rozpoznawania rzeczywistości społeczno-politycznej. W wyniku czynności krytycznych pozyskuje się opinię o wiarygodności i użyteczności określonych informacji źródłowych do celów badawczych.

24. Krytyka zewnętrzna źródeł

Polega na ustaleniu pochodzenia źródła, jego autentyczności oraz stanu zachowania. Badając pochodzenie źródła ustala się miejsce i czas jego powstania, autorstwo, uwarunkowania społeczno-polityczne i okoliczności towarzyszące jego powstaniu. Poznanie autora, jego wartości ideowych i przynależności do opcji politycznej może mieć wpływ na określenie stopnia obiektywności źródła, ułatwia wskazanie intencji, którymi kierowano się przy jego tworzeniu. Ważna jest znajomość warunków powstania źródła, która umożliwia ustalenie przyczyn jego powstania oraz stronniczości bądź jej braku. Równie ważne są miejsce i czas powstania źródła, co umożliwia odniesienie zawartych w dziele informacji do określonej rzeczywistości. Zadaniem krytyki zewnętrznej źródła jest wskazanie czy źródło rzeczywiście jest takim za jakie się je uważa. Niekiedy pojawiają się wątpliwości, czy źródło nie jest tworem fikcyjnym nieodpowiadającym konkretnej rzeczywistości. Materiały tego rodzaju wytwarzane są przez różne podmioty polityczne w okresie tzw. przełomów politycznych, w sytuacji wytwarzania się politycznych pomówień, zniesławień, czy szantażu. W krytyce zewnętrznej ustala się, czy badane źródło jest tworem oryginalnym, czy też jest jego kopią, odpisem, Odpis może być zarówno wierny z oryginałem, ale może też zawierać wiele rozbieżności powodowanych, np. opuszczeniem jego fragmentu bądź wprowadzeniem objaśnień lub dopisków.

25. Krytyka wewnętrzna źródeł.

Zadaniem krytyki wewnętrznej źródeł jest określenie, czy dane źródło sporządzone zostało zgodnie z realiami społeczno-politycznymi danego czasu. W praktyce naukowo – poznawczej spotyka się niekiedy sytuacje, że źródło jest tworem autentycznym, natomiast fakty w nim zawarte są nieprawdziwe, zmyślone. Zdarza się takie przypisywanie określonym faktom takiego znaczenia, jakiego nie miały. Może to wypływać z niekompetencji sporządzającego źródło, ale może być również przejawem jego tendencyjnego stosunku do rzeczywistości. Duży wpływ na zniekształcenie prawdy w treści źródła mają zwykle stosunki społeczno-polityczne panujące w tym czasie, kiedy źródło zostało wytworzone oraz postawa jego twórcy wobec otaczającej rzeczywistości. Zdarza się, że okoliczności ideowo – polityczne skłaniają podmioty wytwarzające źródło do przedstawiania faktów zgodnie z dominującymi w danym czasie tendencjami upowszechnianymi w życiu politycznym. Świadomie zaciera się słabe strony, a podkreśla zasługi jednostek sprawujących w danym czasie władzę, pomija bądź umniejsza zasługi rzeczywistych ich sprawców. Celem krytyki zewnętrznej źródła jest rozpoznawanie czy treść danego źródła zawiera informacje mające w rzeczywistości miejsce, czy też są one wytworem jego twórców. Zdarza się niekiedy, że całe źródło jest nieprawdziwe lub zawiera nieprawdziwe informacje. Jest ono jednak autentycznym dokumentem danego czasu. Może też okazać się, że treść źródła jest wiarygodna, chociaż niektóre fakty są w niej fałszywie przedstawione lub zmyślone. Zjawisko to występuje, no. Wówczas, kiedy twórca źródła prezentując określoną rzeczywistość wskazuje równocześnie na własne zasługi. Rzeczywistość ta charakterystyczna dla doniesień prasowych. Zdarza się, że dziennikarze prezentują powierzchownie, czy tendencyjnie określoną rzeczywistość oraz interpretują ją. Zabiegiem koniecznym jest wtedy w poznaniu badawczym oddzielenie faktów od wszelkich interpretacji.

26. Etapy procedury rozpoznania statystycznego.

1. obserwacja statystyczna

polega na liczeniu różnych elementów procesów masowych, np. aktywności politycznej, frekwencji wyborczej, uczestnictwa w życiu partyjnym i samorządowym

2. opisywanie zbiorowości

ujęcie materiału statystycznego w tablice, wykresy oraz specjalne liczy, które go charakteryzują we właściwy sposób, np. średnie, wskaźniki.

3. analiza zbiorowości

zbadanie przyczyn określonego kształtowania się procesu masowego oraz wykryciu istniejących w nim prawidłowości i związków.

27. Rejestracja bieżąca i spis.

Są one metodami pozyskiwania materiału statystycznego. Rejestracja polega na prowadzeniu ciągłej sprawozdawczości określonych procesów. Spis różni się od rejestracji tym, że nie odbywa się stale, na bieżąco, ale prowadzony jest okresowo lub doraźnie poza regularnym biegiem sprawozdawczości. Materiały statystyczne uzyskane przez rejestrację są zwykle bogatsze, dają ciągły obraz rozpoznawanego zjawiska. Spisy dostarczają zaś jedynie danych statystycznych migawkowych. Najważniejsze to spisy ludności.

28. Elementy organizacji badań zjawisk społeczno-gospodarczych i politycznych.

29. Pojęcie metody badawczej

Oznacza zasady i sposoby systematycznych dociekań w celu poznania obiektywnej rzeczywistości

Każda metoda badań jest systemem reguł, wskazań i przepisów opartych na trzech warunkach:

W tradycyjnym rozumieniu kategorię „metoda” odnosi się do zbierania materiałów, ich opracowywania i interpretacji. Podstawowe znaczenie mają: obserwacje, wywiad, ankieta, gromadzenie wypowiedzi osobistych, gromadzenie dokumentów.

30. Szerokie i wąskie rozumienie pojęcia „metoda”

W szerokim znaczeniu określa ona charakter i zakres badań. W wąskim znaczeniu rozumieniu określa powtarzalne sposoby rozstrzygania zadań związanych z realizacją badań zgodnie z przyjętą metodą w znaczeniu szerokim. Wąsko pojmowaną metodę często nazywa się techniką badawczą. Pojęcia te używane są wymiennie bądź łącznie, np. mówi się o metodzie i technice obserwacji czy wywiadu.

31. Analiza i synteza

W opracowywaniu materiału podstawowymi sposobami są analiza i synteza.

Analiza polega na rozbiorze jakiegoś złożonego przedmiotu czy pojęcia na części składowe.

Synteza zaś na łączeniu prostych pojęć, względnie prostych zdarzeń celem osiągnięcia wyników złożonych

32. Cechy metody

Przy doborze metody istotną cechą jest jej celowość. Metody są środkiem realizacji określonych celów poznawczych. Od metody wymaga się aby spełniała postulat adekwatności, tzn. aby określone za jej pomocą systemy operacji prowadziły zawsze do zamierzonych rezultatów.

Metoda badawcza to inaczej droga dociekań poznawczych, reguły, wskazania, przepisy, teorie i środki. Każda zawiera charakterystyczny sposób postępowania, wynika ze świadomego wyboru i musi być wielokrotnie powtarzalna. Najważniejsze cechy metody to:

33. Klasyfikacja metod

Ze względu na stopień ich ogólności wyróżniamy: ogólne i szczegółowe. Przez ogólność metody rozumie się zakres i powszechność jej stosowalności, np. możliwość korzystania z niej przez różne dyscypliny badawcze.

Ze względu na cel, jakiemu mają służyć metody, dzielimy je na: stricte poznawcze oraz użytkowe. Użytkowe to inaczej utylitarne lub przekształcające rzeczywistość. Wyraźne ich rozgraniczenie nie jest możliwe, gdyż po pierwsze przekształcenie użytkowe zakłada na ogół jednocześnie poznanie i przyczynia się do ujawnienia nowych rezultatów poznawczych. Po drugie poznanie może być osiągnięte przez celowo dokonywane przekształcenia utylitarne.

W podejściu strukturalnym rozróżniamy metody: teoretyczne i empiryczne. Metody teoretyczne polegają na idealizacji myślowej, budowaniu systemu hipotez modelowych, w wysokim stopniu sformalizowaniu eksperymentu myślowego oraz dedukcji. Metody empiryczne polegają na dociekaniu, poznaniu prawdy obiektywnej o rzeczywistości oraz jej celową, systematyczną obserwację, pomiar i opis.

34. Indukcja i dedukcja

W dedukcji konkluzja wynika logicznie z przesłanek, odwrotnie w indukcji – przesłanki wynikają logicznie z wniosków.

Dedukcja jest drogą przechodzenia z jakiejś racji ogólnej do konkretnej rzeczywistości. Podstawowe jej formy zawierają się w przechodzeniu od ładu ogólnego do szczegółowych przypadków zdarzeń, zjawisk, przechodzenie od pojęcia ogólnego do zawartych w nim pojęć szczegółowych, przekształcaniu danych wartości za pomocą zmienianego sposobu łączenia ich elementów.

Indukcja jest procesem prowadzącym do formułowania uogólnień. Istotnymi jej okolicznościami są: nieobecność danych niezgodnych z uogólnieniem, obfitość danych stanowiących podstawę uogólnienia, obecność danych niezgodnych z uogólnieniami konkurencyjnymi, różnorodność danych będących podstawą uogólnienia.

35. Analiza systemowa

Ujmuje zjawiska polityczne jako elementy systemu. System to uporządkowany wewnętrznie w całość układ elementów mających określoną strukturę. Analiza systemowa a politologii polega na konstruowaniu modelu pojęciowego zjawisk politycznych. Różnorodne dziedziny rzeczywistości politycznej interpretuje się nie jako luźne zbiory izolowanych elementów, lecz jako wewnętrznie zintegrowane, wyróżniające się z otoczenia i kierujące się swoistymi prawidłowościami całości.

Wyróżniamy trzy rodzaje analizy systemowej polityki:

W odniesieniu do każdego z wymienionych przedmiotów model systemowy generuje określone pytania badawcze.

W analizie makrosystemowej pytamy, np. jakie elementy należą do otoczenia, jakie jest kryterium przynależności do systemu, jakie są funkcje systemu w otoczeniu, jakie elementy są funkcjonalne, a jakie dysfunkcjonalne dla systemu jako całości, jakie elementy stanowią najważniejsze czynniki zmian w systemie.

W analizie średniego rzędu pytamy, np., z jakimi podsystemami dany system jest najmocniej powiązany, jaka jest rola danego podsystemu, utrzymanie, funkcjonowanie systemu jako całości, jaki jest stopień autonomii danego podsystemu.

W analizie mikrosystemowej pytamy, np., z jakimi innymi elementami systemu dany element jest powiązany, jaki jest charakter oddziaływań (wzajemne, jednostronne, harmonijne, konfliktowe), jaki jest stopień autonomii elementu, w jakim systemie działanie elementu jest modyfikowane za pomocą sprzężenia zwrotnego przez rezultaty jego własnych działań.

36. Metody statystyczne. Ujęcie ilościowe i jakościowe.

Umożliwiają one badanie specyfiki określonych zbiorowości, pozwalają na ustalenie i rozpoznawanie cech zjawisk masowych oraz wyjaśnianie związków przyczynowych między nimi i przewidywanie dalszego rozwoju.

Spośród metod statystycznych w politologii wykorzystuje się najczęściej obliczenia szacunkowe, nie wyczerpujące, reprezentacyjne oraz przeciętne, średnie arytmetyczne, średnie geometryczne oraz przeciętną pozycyjną (inaczej mediana, wartość środkowa).

Obliczenia szacunkowe (inaczej interpolacje) stosuje się, gdy nie jest kompletny materiał statystyczny do rozpoznawania danych zjawisk. Dla określenia przybliżonej wielkości zjawisk dokonuje się ich szacunku na podstawie posiadanych materiałów często pochodzących z różnych źródeł, również wtórnych. Obliczenia te maja na celu ujawnienie stanu przybliżonego, orientacyjnego danego zjawiska. Dokonując obliczeń szacunkowych badacz musi przyjąć założenie, że uzyskane przez niego rezultaty statystyczne mogą poważnie różnić się od rzeczywistości. Przykładowe obliczenia szacunkowe to:

37. Metoda porównawcza (analogii)

Polega na wykrywaniu podobieństw między procesami i zjawiskami, które prowadzą także do ustalenia różnic między nimi. Punktem wyjścia do jej stosowania w politologii jest określenie zakresu badań. Rozpoznawane zjawiska powinny być porównywalne pod względem jakości. Metoda porównawcza ma istotne znaczenie w rozpoznawaniu stosunków międzynarodowych. Często wykorzystuje się wymiar wzorca bądź luki.

Wymiar wzorca polega na naśladowaniu modelu rozwoju cywilizacyjnego zjawisk i procesów, w tym rozwiązań politycznych, społecznych i gospodarczych krajów o wysokim poziomie rozwoju. Model, wzorzec przyjmuje się zarówno w strategii dalszego rozwoju, jak i w podejmowaniu decyzji doraźnych.

Wymiar luki polega na odkrywaniu przed podmioty polityki możliwości osiągania dla siebie różnych korzyści zarówno w przestrzeni globalnej, jak i lokalnej, np. w krajach o niższym poziomie rozwoju.

Badania porównawcze w politologii dostarczają decydentom materiału pomagającego w podejmowaniu decyzji optymalnych oraz w uniknięciu błędów popełnianych przez inne podmioty w podobnych sytuacjach.

38. Analiza instytucjonalno-prawna

Przez instytucje prawną rozumie się zespół norm prawnych określających konkretne zjawisko lub wyodrębnioną strukturę organizacyjną. Jeżeli rozpoznawane zjawisko lub struktura wiążą się z ustrojem politycznym państwa można wtedy mówić o instytucji prawno – ustrojowej. W poznaniu instytucjonalno – prawnym w rzeczywistości politycznej fundament stanowi rozpoznawanie tekstów, aktów normatywnych. Nie analizuje się innych źródeł kształtujących rozpoznawaną rzeczywistość. Przyjmuje się, że ustawodawca dysponuje wiedzą znacjonalizowaną, możliwie pełną w zakresie języka, znajomość stanu prawnego i aktualną wiedzą empiryczną. W politologii analizę instytucjonalno – prawną stosuje się m.in. w badaniu funkcjonowania instytucji politycznych, systemów politycznych, stosunkach międzynarodowych.

39. Metoda historyczna

Dla badań politologicznych istotną wartość przedstawiają metody i siatka pojęć w historii. W obrębie politologii zwyczajowo mieści się współczesna historia polityczna. Granica między historią polityczną a politologią nie jest wyraźna, stąd niektóre prace trudno jednoznacznie zaliczyć do jednej z tych dwóch dyscyplin. Na metodę historyczną stosowaną w politologii składają się: badanie genezy zjawisk politycznych, traktowanie łącznie ich aspektów strukturalnych, funkcjonalnych i genetycznych, prowadzenie studiów biograficznych, stosowanie ujęć wycinkowych, gromadzenie obszernego materiału empirycznego jako podstawy do formułowania praw naukowych. Nauka historyczna wypracowała różne metody ustalania faktów. Są to metody:

40. Metoda behawioralna

Ta analiza zachowań politycznych w drodze obserwacji jednostek ludzkich i złożonych z tych jednostek grup społecznych. Zakłada orzekanie o zachowaniach ludzi jako rzeczywistości realnie istniejącej, a nie jej wizji. Rozważania normatywne uznaje za pozostające w sprzeczności z rzeczywistymi zachowaniami ludzkimi. W obrębie instytucji przedkłada badanie zachowań jednostkowych nad rozpoznawaniem zjawisk w zakresie psychologii i socjologii polityki.

41. Metoda symulacyjna

Polega na tworzeniu kompleksowych modeli rzeczywistości politycznej, zwłaszcza zachowań psychologicznych, socjologicznych, decyzyjnych, na poszukiwaniu danych drogą gier, dedukcji, a następnie powtarzaniu ich przez komputery. Cechą metody jest jednocześnie posługiwanie się analizą i syntezą z uwzględnieniem podstawowych zasad logiki. Mając dane wyjściowe i warunki ograniczające oraz znając w zarysie cel zadania, analizuje się zależności i związki zachodzące między danymi wyjściowymi. Ważnym celem stosowania metody jest dochodzenie do nowych rozwiązań przez wykrywanie nowych faktów i związków zachodzących między nimi w realnie istniejącej rzeczywistości. Modele symulacyjne wiążą się ze stosowaniem teorii gier, są one pożyteczne z punktu widzenia prawdopodobnych wariantów rozwoju rzeczywistości. Przez udział w grach symulacyjnych uczestnicy pozyskują szeroki zakres nowych informacji o danej rzeczywistości. Modele są przydatne zwłaszcza tam, gdzie bezpośrednie eksperymentowanie z rzeczywistością jest zbyt etycznie niedozwolone, kosztowne, pracochłonne bądź niebezpieczne.

42. Metoda decyzyjna

Specyfika metody decyzyjnej polega na rozpatrywaniu zjawisk procesów społeczno-politycznych przez pryzmat:

Metoda ta pozawala na całościowe ujmowanie rozpoznawanych zjawisk, sprzyja dokonywaniu analizy dynamicznych przemian rzeczywistości politycznych. Pozwala wyjaśnić, dlaczego bieg wydarzeń jest taki, a nie inny. Stosowanie metody można odnieść do szeroko dostępnych materiałów oraz różnych decyzji politycznych. Jej niedostatkiem jest koncentracja na analizie formalnej oraz technikach podejmowania decyzji w formach i zasadach procesów decyzyjnych.

43. Weryfikacja

Po zebraniu danych określa się ich wartość naukową. Obowiązkiem badacza jest krytyczne rozpoznanie i formalne sprawdzenie danych. Sprawdzenie to nazywamy weryfikacją bądź porządkowaniem. Celem jest wyeliminowanie deformacji danych spowodowanych, np. emocjonalnym zaangażowanie respondentów, ich obawami, fałszywymi ambicjami bądź niechęcią do prowadzonych badań, małą sumiennością udzielanych odpowiedzi, upraszczaniem, dezinformowaniem bądź mówieniem nieprawdy.

44. Selekcja.

Polega na wyselekcjonowaniu zebranych materiałów pod względem przydatności do konkretnego badania. Rozpoznając materiał dokonuje się jego segregacji. Segregacja opiera się w dużej mierze na instynkcie badawczym. Punktem wyjścia eliminacji jest intuicyjne przyjęcie pewnych cech za ważne, innych za drugorzędne i mało istotne. Najpierw wybieramy spośród zgromadzonych danych te uznane za fundamentalne ze względu na rozpoznawany temat badania. Wtórna selekcja polega na uporządkowaniu danych według stopnia ich ważności. Uzyskuje się w ten sposób dane o znaczeniu pierwszorzędnym, drugorzędnym i n-rzędnym dla rozpoznawanej rzeczywistości społeczno-politycznej zdefiniowanej w problemie badawczym. Każde rozwiązanie powstałe na gruncie rozumienia cechuje skłonność do upraszczania rzeczywistości, stąd do eliminacji należy podchodzić z rozwagą. Z pewnością wyeliminować należy materiały uznane za wątpliwe i mało wiarygodne.

45. Kategoryzacja (inaczej grupowanie)

Polega na łączeniu danych ze względu na ich wspólne właściwości w określone kategorie, np. wszystkie wypowiedzi bez względu na formę afirmujące określone wartości, postawy, oceny, cechy mogą stanowić jedną kategorię. Wypowiedzi negujące traktowane analogicznie mogą składać się na druga grupę. Dokonując kategoryzacji zakłada się, że:

Kategoryzacja nie stanowi problemu, gdy w badaniu stawiano respondentom pytania zamknięte. W przypadku pytań otwartych opracowuje się schemat kategoryzacji. Tworzy się wykaz kategorii według typowych wypowiedzi. Gdy jakiejś wypowiedzi nie uda się zaliczyć do żadnej z kategorii wówczas tworzy się kategorię dodatkową określając ja jako, np. inne wypowiedzi.

46. Etapy skalowania.

Z procesem kategoryzacji wiąże się skalowanie, które polega na przyporządkowaniu pewnym właściwościom określonych wartości lub symboli. Celem jest wyrażenie właściwości badanych systemów rzeczy w sposób ilościowy. Obok ilościowego rozpoznania dąży się także do jakościowego uchwycenia różnych aspektów badanych zjawisk. Kolejne etapy skalowania to:

1. wybór danych, które chce się poddać skalowaniu

2. określenie ich przydatności ze względu na badany problem

3. określenie stopnia ich wiarygodności

4. wybór miary umożliwiającej także ułożenie danych, aby tworzyły określone zbiory dowolnej liczy elementów przechodzących jeden w drugi

47. Sprawozdanie z badań.

Sprawozdanie powinno zawierać:

48. Sposoby formułowania wniosków z badań.

Wnioski z badań powinny być sformułowane w trzech wzajemnie dopełniających się punktach widzenia: