Struktura pojęciowa czasowników strachu - Marta Dobrowolska-Pigoń - ebook + książka

Struktura pojęciowa czasowników strachu ebook

Dobrowolska-Pigoń Marta

0,0

Opis

Książka przedstawia analizę semantyki polskich czasowników strachu z wykorzystaniem założeń i pojęć lingwistyki kognitywnej, szczególnie gramatyki kognitywnej Ronalda Langackera. Celem podjętych badań było przede wszystkim uchwycenie zróżnicowania znaczeń motywowanego użyciem różnych konstrukcji gramatycznych. Analizując werbalne wykładniki pojęć z kategorii STRACHU, autorka badała zjawiska prototypowości i stopniowalności cech na różnych poziomach: w obrębie charakterystyki poszczególnych leksemów i w obrębie kategorii. Przeprowadzone analizy pozwoliły potwierdzić przekonanie językoznawstwa kognitywnego o znaczeniotwórczej roli gramatyki, a także wstępną obserwację dotyczącą przecinania się zakresów znaczeniowych poszczególnych czasowników. Analiza wykazała również, że rozróżnienia na poziomie treści pojęciowej znajdują odzwierciedlenie w dystrybucji określonych typów składniowo-leksykalnych.

„Praca przynosi wnikliwe studium semantyki konstrukcji składniowych przy czasownikach z grupy strachu, przeprowadzone z twórczym wykorzystaniem kognitywizmu i empirycznych badań korpusowych”.
Z recenzji prof. dr hab. Iwony Nowakowskiej-Kempnej

Marta Dobrowolska-Pigoń pracuje w Instytucie Filologii Polskiej Uniwersytetu Wrocławskiego. Jej zainteresowania naukowe obejmują językoznawstwo kognitywne, gramatykę kognitywną, semantykę emocji. Jest członkinią Grupy Technologii Językowych Politechniki Wrocławskiej oraz Centrum Badań Kognitywnych nad Językiem i Komunikacją Uniwersytetu Wrocławskiego.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 588

Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS
Oceny
0,0
0
0
0
0
0
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.

Popularność




WSTĘP

Emocje stanowią przedmiot studiów wielu dziedzin, przede wszystkim neurobiologii ipsychologii, ale również filozofii, antropologii, kulturoznawstwa, literaturoznawstwa, historii ipedagogiki. Niegdyś niedoceniane przez naukowców, dziś traktowane są jako klucz do wyjaśniania zagadnień zpozoru niemających zbyt wiele wspólnego zprzeżyciami takimi jak gniew, radość czy strach. Wielu badaczy dostrzega użyteczność wniknięcia wnaturę emocji przy okazji rozpatrywania iwyjaśniania rozmaitych przejawów ludzkiej działalności. Właściwe funkcjonowanie człowieka wniemal każdym aspekcie życia jest bowiem bez nich niemożliwe (Damásio 1999).

Na gruncie językoznawstwa emocje cieszą się od kilkudziesięciu lat niesłabnącym zainteresowaniem. Liczne opracowania badające językowe wykładniki uczuć powstawały już wnurcie strukturalistycznym igeneratywistycznym, natomiast rozległe perspektywy wbadaniach nad językowymi wykładnikami emocji zapoczątkowało językoznawstwo kognitywne. Badacze reprezentujący ten nurt lub inspirujący się kognitywnym podejściem do języka przeprowadzili liczne analizy skupione na zasobach jednego języka bądź prezentujące perspektywę porównawczą, aczasem uniwersalizującą zjawiska związane znazywaniem lub wyrażaniem emocji. Wielki wkład wwiedzę na temat języka uczuć wniosły badania Anny Wierzbickiej nad scenariuszami emocji wróżnych językach. Mimo że temat emocji był podejmowany przez językoznawców tak często, nie został wyczerpany, czego dowodem jest nieustanne sięganie po niego na nowo. Szczególnie dużo do odkrycia zostało wdziedzinie werbalnych wykładników uczuć, które zostały przebadane wmniejszym stopniu niż rzeczowniki. Wśród badań przeprowadzanych wPolsce na szczególną uwagę zasługują: projekt skupiający badaczki różnych instytutów Uniwersytetu Adama Mickiewicza wPoznaniu, którego tematem jest konceptualizacja pojęć ‘belief’, ‘reason’ i‘emotion’ wjęzyku angielskim ipolskim, oraz badania nad porównawczą semantyką leksykalną na Uniwersytecie Warszawskim (Grzegorczykowa, Waszakowa 1998). Oba przedsięwzięcia charakteryzuje przyjęcie perspektywy porównawczej iinterdyscyplinarne ujęcie przedmiotu badań. Studia nad zróżnicowanymi językowo sposobami wyrażania inazywania emocji przyczyniają się do rozwoju translatoryki iinnych dziedzin umożliwiających komunikację międzykulturową. Są również próbą odpowiedzi na wyzwania dzisiejszego świata, wktórym różne kultury zderzają się ze sobą, ajednocześnie ich członkowie mają trudność zprzyjęciem perspektywy człowieka ukształtowanego winnym systemie wartości.

Strach jest prawdopodobnie najstarszą ewolucyjnie emocją, być może jedyną, którą człowiek współdzieli ze światem zwierząt–co umożliwiło neurobiologom stosunkowo dokładne jej przebadanie (LeDoux 2000). Wiele uwagi poświęcili mu psychologowie; ich największe zainteresowanie wzbudzają zjawiska lęku (Kępiński 2002; Riemann 2005) ifobii (Stern 2001). Strach stanowi również przedmiot badań lub punkt odniesienia wstudiach antropologicznych, kulturowych, socjologicznych ihistorycznych (por. Łotman 1977; Delumeau 2011; Appadurai 2009). Wświetle wyników tych różnorodnych analiz strach ibliskie mu emocje jawią się jako mechanizmy, które umożliwiają człowiekowi rozpoznanie niebezpieczeństwa iprzetrwanie, ale także jako siły popychające do działań destrukcyjnych względem siebie iinnych.

Celem prezentowanej rozprawy jest analiza semantyki polskich czasowników, za pomocą których wyrażane1, nazywane iopisywane są strach iinne bliskie mu przeżycia. Jak zauważa Wierzbicka (1995), apotwierdzają wswoich badaniach korpusowych Dziwirek i Lewandowska-Tomaszczyk (2010), czasowniki są główną częścią mowy wykorzystywaną wjęzyku polskim do nazywania iwyrażania emocji. Spostrzeżenie to nie dotyczy wrównym stopniu wszystkich uczuć2, jednak wwypadku większości, wtym strachu, znajduje potwierdzenie.

Polskie czasowniki emocji były już przedmiotem studiów językoznawczych. Nowakowska-Kempna poświęciła im monografię dotyczącą konstrukcji predykatowych nazywających uczucia (1986). Lewandowska-Tomaszczyk iDziwirek (2010) analizowały polskie czasowniki wopartym na badaniach korpusowych studium porównawczym na temat sposobów wyrażania emocji wjęzyku polskim iangielskim. Badaczki odwoływały się do założeń gramatyki kognitywnej, kładąc nacisk na kontekst gramatyczny ijego znaczeniotwórczą rolę. Struktury zczasownikami strachu zbadane zostały, wzgodzie zparadygmatem generatywistycznym, przez Jędrzejko (1983). Prezentowana przez nas rozprawa jest pierwszym obszernym studium poświęconym werbalnym wykładnikom kategorii strachu.

Głównym zadaniem rozprawy było zbadanie polisemii czasowników–interesowało nas zróżnicowanie znaczeń związane ze stosowaniem czasowników wróżnych konstrukcjach gramatycznych. Do analizy posłużyły narzędzia opisu języka należące do gramatyki kognitywnej. Na początku rozważań uznaliśmy, że pojęcia, którym nadają językowy kształt uwzględniane przez nas czasowniki, należą do szeroko rozumianej kategorii strachu.

Prezentowane wrozprawie analizy skupiają się wokół następujących pytań:

1. Czym charakteryzuje się kategoria strachu? Jakie rodzaje pojęć znajdują się wjej centrum, ajakie na peryferiach?

2. Które czasowniki są wykładnikami pojęć najbliższych powszechnym wyobrażeniom na temat tego, czym jest strach, czyli pojęć prototypowych dla kategorii strachu?

3. Na czym polega znaczeniotwórcza rola gramatyki wwypadku zdań zczasownikami strachu? Jakie aspekty przeżycia emocjonalnego są uwypuklane wróżnych strukturach? Które ztych aspektów są centralne, aktóre peryferyjne dla analizowanej kategorii?

4. Jakie można zaobserwować podobieństwa iróżnice między poszczególnymi czasownikami? Czy zakresy profilowanych3 przez nie pojęć na siebie nachodzą?

Odwołując się do twierdzeń językoznawstwa kognitywnego na temat charakteru kategorii organizujących ludzkie poznanie, przyjęliśmy, że kategorię strachu charakteryzuje nieostrość granic, aposzczególne pojęcia emocji mogą do niej należeć wmniejszym lub większym stopniu, czyli znajdować się bliżej jej centrum lub bliżej peryferii. Założenie to potwierdzają studia prowadzone przez różnych badaczy, przede wszystkim Wierzbicką, która zalicza emocje do kategorii rozmytych (Wierzbicka 1999a; 2006), pozbawionych struktury (Wierzbicka 1971). Szczegółowe badania nad materiałem posłużyły do zweryfikowania dwóch hipotez:

1. Granice między zakresami pojęć profilowanych przez poszczególne czasowniki strachu są nieostre, ustanawiane tymczasowo isilnie uzależnione od kontekstu.

2. Rodzaj przeżycia, które ma być językowo przywołane, determinuje nie tylko dobór słów, ale również struktur gramatycznych, które profilują pojęcia emocji wokreślony sposób.

Treść pojęciowa czasowników oraz sposoby jej profilowania zostały scharakteryzowane na podstawie danych leksykograficznych oraz korpusowych. Materiał zaczerpnęliśmy zNarodowego Korpusu Języka Polskiego (NKJP), głównie zpodkorpusu zrównoważonego, atakże ze zrównoważonego podkorpusu ręcznie znakowanego. Teksty, które tworzą NKJP, pochodzą zliteratury, prasy codziennej ifachowej, stenogramów sejmowych, tekstów ulotnych ipublikacji internetowych. Wciąż niewielki pozostaje wśród nich udział transkrypcji nagrań tekstów mówionych. Wpozyskiwaniu konkordancji posługiwaliśmy się wyszukiwarką Instytutu Podstaw Informatyki Polskiej Akademii Nauk onazwie Poliqarp (Janus, Przepiórkowski 2007).

Opis wyników analiz materiałowych został poprzedzony wprowadzeniem teoretycznym. Składają się na nie: zarys metodologicznych podstaw badań (rozdział pierwszy), charakterystyka emocji jako przedmiotu psychologii ineurobiologii (rozdział drugi) oraz stan badań nad językowymi wykładnikami emocji (rozdział trzeci). Wrozdziale pierwszym przedstawiamy najważniejsze tezy językoznawstwa kognitywnego oraz lingwistyczną myśl Anny Wierzbickiej, anastępnie prezentujemy kluczowe wnaszych badaniach narzędzia gramatyki kognitywnej. Dokonujemy wnim na koniec przeglądu koncepcji podejmujących kwestię relacji między strukturą składniową, której ośrodkiem jest czasownik, aznaczeniem. Rozdział drugi zarysowuje problemy związane zbadaniami nad emocjami na gruncie neurobiologii ipsychologii oraz charakterystykę strachu zpunktu widzenia tych nauk. Rozdział trzeci prezentuje rozwój badań nad emocjami wróżnych nurtach językoznawstwa, ze szczególnym uwzględnieniem badań kognitywnych. Wrozdziale czwartym przedstawiliśmy charakterystykę kategorii strachu, stworzoną na podstawie opracowań na temat językowych wykładników tej emocji. Rozdział piąty to rozdział analityczny, wktórym na początku prezentujemy ogólną charakterystykę czasowników emocji, anastępnie przedstawiamy kryteria doboru materiału językowego oraz przebieg iwyniki analiz materiału korpusowego. Rozprawę zamyka podsumowanie analiz wraz zzarysem perspektyw badawczych.

1Wyrażanie emocji często jest wjęzykoznawstwie rozumiane wąsko jako stosowanie konstrukcji izwrotów ekspresywnych–wodróżnieniu od mówienia ouczuciach (Mikołajczuk 2006: 85–86). Wtej rozprawie przyjmujemy szerokie rozumienie tego pojęcia: wpewnych sytuacjach mówienie ouczuciach (wpierwszej osobie) jest jednocześnie formą ich ekspresji.

2Przykładem jest uczucie smutku, którego najczęściej spotykanym językowym wykładnikiem są przymiotnik smutnyoraz przysłówek smutno, pełniący funkcję predykatywną wkonstrukcjach celownikowych, np. Smutno mi.

3Profilowanie jest wtej pracy rozumiane za Ronaldem Langackerem jako wyróżnienie części bazy pojęciowej, na której skupiona jest uwaga poznawcza (Langacker 2009: 100). Należy odróżnić to rozumienie od profilowania traktowanego jako operacja językowo-pojęciowa, polegająca na kształtowaniu obrazu przedmiotu przez ujęcie go wokreślonych aspektach (Grzegorczykowa 2012: 19). To drugie podejście właściwe jest badaniom nad językowym obrazem świata, zapoczątkowanym przez Jerzego Bartmińskiego (Bartmiński 2006).

1. Podstawy metodologiczne

Językoznawstwo kognitywne pojawiło się na przełomie lat siedemdziesiątych iosiemdziesiątych XX wieku jako opozycja wobec paradygmatów formalistycznych, szczególnie modelu transformacyjno-generatywnego, dominującego wjęzykoznawstwie anglosaskim mniej więcej od lat sześćdziesiątych. Generatywizm dąży do przedstawiania reguł rządzących składnią za pomocą symboli matematycznych ioperacji logicznych. Zgodnie ztą teorią język stanowi wrodzoną, autonomiczną zdolność umysłową, rozwijającą się niezależnie od pozostałych. Centralne miejsce wmodelu wypracowanym przez Noama Chomskiego zajmuje składnia, traktowana jako moduł języka niezależny od pozostałych. Założenia językoznawstwa kognitywnego stanowią zaprzeczenie fundamentalnych twierdzeń generatywistów, dotyczących autonomii języka, modularności systemu językowego oraz natywizmu4 językowego.

Upodstaw językoznawstwa kognitywnego leży założenie–opozycyjne do twierdzeń teorii Chomskiego, jak również rozwijającej się wlatach trzydziestych iczterdziestych XX wieku amerykańskiej szkoły strukturalistycznej–że kompetencje językowe człowieka kształtują się wsposób zależny od rozwoju innych zdolności umysłowych. Według kognitywistów wjęzyku znajdują odbicie procesy poznawcze. Ważne dla nich było zatem zrozumienie, jak przebiega poznanie, jaką strukturę mają pojęcia, którymi posługuje się ludzki umysł. Wpływ na kształtowanie się nowego podejścia wjęzykoznawstwie wywarły badania psycholog Eleanor Rosch dotyczące budowy kategorii naturalnych. Badaczka stwierdziła, że wodróżnieniu od tzw. kategorii klasycznych, opisywanych przez Arystotelesa, kategorie naturalne nie mają ostro zarysowanych granic inie spełniają reguły cech koniecznych iwystarczających. Oprzynależności do danej kategorii decyduje współdzielenie cech zprototypem, czyli najbardziej typowym, wzorcowym przedstawicielem danej kategorii. Zdaniem Rosch każda kategoria ma wewnętrzną strukturę: najbardziej prototypowe egzemplarze znajdują się wjej centrum, anajmniej–na peryferiach. Związek zprototypem nie musi być bezpośredni, może on zachodzić zgodnie zzasadą podobieństwa rodzinnego, zjawiska opisywanego przez Ludwika Wittgensteina (2000: 52–54). Egzemplarze, które mają mniej wspólnych cech zpozostałymi elementami kategorii, awięcej zprzedstawicielami innych kategorii, są elementami peryferyjnymi. Zjawisko prototypowości, jako fenomen poznawczy, znajduje odbicie wjęzyku. Efekty prototypowe obserwujemy nie tylko wprzypadku znaczeń leksemów, ale również wgramatyce, np. gdy przyporządkowujemy dany wyraz do części mowy: okazuje się, że ze względu na podleganie takim, anie innym operacjom syntaktycznym słowo może być określone jako lepszy lub gorszy przedstawiciel rzeczowników bądź innej części mowy. Opis zjawisk językowych przez pryzmat kategorii onieostrych granicach, zorganizowanych wokół elementów prototypowych, stanowi jedną znaczelnych zasad paradygmatu kognitywnego.

Kognitywna teoria języka ma również źródło wtzw. psychologii postaci (Gestalt), stworzonej wlatach trzydziestych iczterdziestych XX wieku. Zakładała ona, że na życie psychiczne składają się pewne całości, wyłaniające się bezpośrednio znaszego doświadczenia, aich formy nie da się sprowadzić do cech ich części składowych (elementów psychicznych). Według Lakoffa iJohnsona kontekst idoświadczenie potrzebne do zrozumienia wyrażeń językowych nie są bezkształtne, ale mają strukturę holistyczną (Przybylska 2002: 30).

Zdaniem kognitywistów kompetencje językowe kształtują się nie woderwaniu od innych zdolności człowieka, ale–przeciwnie–są zależne od takich procesów jak postrzeganie czy koordynowanie motoryki. „Język nie jest bytem odrębnym isamowystarczalnym […], lecz nieodłącznym aspektem ludzkiego poznania” (Langacker 2009: 23). Do działań językowych człowiek wykorzystuje podstawowe operacje mentalne, takie jak: wyobraźnia, rozróżnianie figury itła, wybór perspektywy, koncentrowanie uwagi (Tomasello 2002; Taylor 2007). Przedstawiciel nurtu rozwojowego wpsychologii, Michael Tomasello, uważa poznanie językowe za szczególny rodzaj poznania wogólności, zauważa również, że sam język nadaje strukturę naszej percepcji iprocesowi kategoryzacji zjawisk. Język ipoznanie wpływają więc na siebie na zasadzie sprzężenia zwrotnego. Psychologowie oraz językoznawcy kognitywni mogą wspólnie zgłębiać kwestie, wktórych spotykają się te dwie dziedziny, np. problem akwizycji języka (Tomasello 1992).

Ronald Langacker utożsamia znaczenie językowe zkonceptualizacją (1987: 97), czyli doświadczeniem mentalnym obejmującym wrażenia sensoryczne, procesy tworzenia nowych pojęć oraz wiedzę kontekstową (Langacker 1998: 30). Ścisłe powiązanie kompetencji językowych zwszelkimi procesami poznawczymi odróżnia podejście kognitywne od strukturalistycznych teorii języka. Te ostatnie również podkreślały pojęciowy charakter znaczenia, lecz było ono całkowicie niezależne od zjawisk pozajęzykowych. Wjęzykoznawstwie kognitywnym operacje mentalne, takie jak postrzeganie, kategoryzacja, dobór perspektywy oglądu, wpływają na naturę znaczenia. Według kognitywistów znaczenie współtworzą treść pojęciowa ijej obrazowanie (Langacker 2009: 70), czyli sposób ujmowania treści poznawczych dostarczanych przez przywołaną domenę. Konceptualizacja ma źródło wpodstawowym doświadczeniu. Twierdzenie George’a Lakoffa, jednego zpierwszych przedstawicieli nurtu, że każde pojęcie jest ucieleśnione, czyli motywowane fizycznym doświadczeniem bądź społeczną interakcją, stało się jedną ztez postulowanego przezeń tzw. realizmu doświadczeniowego, kwestionującego obiektywistyczny paradygmat wfilozofii inaukach opoznaniu. Równie istotne jest spostrzeżenie, że myśl ludzka nie ma charakteru propozycjonalnego, lecz obrazowy. Znaczy to bowiem, że pojęcia–aco za tym idzie: znaczenia językowe–nie opierają się na sądach logicznych, ale są wdużej mierze kształtowane przez wyobraźnię (Lakoff 1987).

Kognitywiści rezygnują ze ścisłych izmożliwie skróconych formuł opisu na rzecz charakterystyki uwzględniającej zakorzenienie znaczenia językowego wdoświadczeniu. Nie może ono zostać zredukowane do cech koniecznych iwystarczających: bliżej jest mu do znaczenia encyklopedycznego, uwzględniającego cały katalog cech iskojarzeń, przez tradycyjne (strukturalistyczne) językoznawstwo usuwane poza centrum znaczeniowe leksemu. Wświetle tez językoznawstwa kognitywnego rozróżnienie na konotację idenotację staje się bezzasadne, każdy bowiem element semantyczny może wdanym kontekście być istotny. Nie znaczy to, że wraz zużyciem danego wyrażenia językowego przywołujemy zbiór wszystkich możliwych cech iskojarzeń. Wrzeczywistości tylko część znich jest aktywowana wkonkretnym użyciu językowym. Znaki językowe nie są opakowaniami na znaczenia ani nie stanowią sumy znaczeń poszczególnych składników–jak sugerowała strukturalistyczna semantyka składnikowa (por. Lyons 1984), lecz są wskazówkami, które odsyłają nas do pewnych treści pojęciowych, pomijając wdanym momencie inne możliwe wycinki struktury mentalnej. „Jednostka leksykalna nie ma wpełni zdefiniowanego ani ostatecznie zamkniętego znaczenia. Powiemy raczej, że jej wartość semantyczna tkwi wskonwencjonalizowanych ścieżkach dostępu (mniej lub bardziej przetartych) do otwartych domen wiedzy” (Langacker 2009: 69). Znaczenie jawi się zatem jako byt dynamiczny, wyłaniający się zdyskursu ispołecznej interakcji, nie zaś, jak to się często przypisuje semantyce kognitywnej, jako coś statycznego izamkniętego (Langacker 2003; 2009). Presuponuje ono tzw. substrat pojęciowy, na który składają się: (1) pojęcia przywoływane lub tworzone na podstawie dotychczasowego dyskursu; (2) udział wzdarzeniu mownym; (3) zrozumienie kontekstu oraz (4) wszelkie domeny wiedzy, które się mogą okazać istotne (Langacker 2009: 69). Jednostki zaś danego języka utrwalone są na mocy konwencjonalizacji. Konwencjonalność zastępuje pojęcie gramatyczności ijest stopniowalna: „[…] nie ma ostrej, jednoznacznej granicy między tymi sensami, które mają status jednostek językowych, atymi, które go nie mają” (Langacker 2009: 63).

Odrębność poszczególnych modułów języka, postulowana zarówno przez generatywistów, jak iprzez przedstawicieli paradygmatu strukturalistycznego, również została zakwestionowana przez kognitywistów. Wszystkie elementy języka–sylaby, leksemy, formanty słowotwórcze, końcówki fleksyjne–są uznawane za jednostki symboliczne, składające się zbieguna fonologicznego oraz bieguna semantycznego, powiązanych relacją symbolizacji. Wprocesie łączenia prostych składników wwyrażenia złożone biorą udział te same typy operacji, niezależnie od tego, czy wyrażeniami złożonymi są wyrazy, czy frazy. Morfologia iskładnia są typami kombinacji jednostek syntagmatycznych (Taylor 2007: 35). Zatarciu ulega granica między leksykonem agramatyką (czyli składnią imorfologią). Użytkownicy języka przyswajają bowiem nie tylko pojedyncze jednostki leksykalne oraz reguły ich łączenia, ale także gotowe frazy. Co więcej, zapamiętywanie schematów łączenia nie wyklucza przechowywania wpamięci gotowych jednostek złożonych. Zdaniem Taylora znaczenie językowe ma zawsze–wwiększym lub mniejszym stopniu–charakter idiomatyczny, co oznacza, że nie jest ono sprowadzalne do sumy sensów elementów składowych znaku językowego. Również składnia cechuje się idiomatycznością, ponieważ poprawność gramatyczną (konwencjonalizację) struktur nie zawsze można stwierdzić, odwołując się jedynie do znanych reguł. „Gramatyka staje się bowiem nie tyle dziedziną ogólnych reguł izasad, ile olbrzymim zbiorem szczegółowych faktów powiązanych ze sobą za pomocą schematów oróżnym stopniu ogólności. To, co idiomatyczne, bynajmniej nie zajmuje wgramatyce pozycji marginalnej; wręcz przeciwnie–stanowi jej centrum” (Taylor 2007: 669). Rezygnuje się również ztradycyjnego podziału na semantykę iskładnię, ponieważ organizacja na poziomie składniowym jest sygnałem sposobu obrazowania danej treści pojęciowej–czyli portretowania tego samego zdarzenia (sceny, sytuacji) za pomocą różnych dostępnych środków (Przybylska 2002: 24–25).

Zacieranie granic między kategoriami, gdy mowa zarówno oznaczeniu poszczególnych jednostek językowych, jak iklasyfikowaniu zjawisk do semantyki czy składni, powoduje, że niemożliwy staje się ściśle formalny opis zjawisk językowych za pomocą symboli matematycznych bądź metajęzykowych. Próba uwzględniania wszystkich aspektów danego fenomenu skłania do tworzenia opisów szczegółowych iskupiających się na jakimś wycinku języka. Wszelkie symbole mają wprzypadku opisu stosowanego przez kognitywistów charakter orientacyjny iwymagają szerokiego komentarza wjęzyku naturalnym.

Podsumowując, do najważniejszych założeń lingwistyki kognitywnej należą następujące twierdzenia:

1. Znaczenie językowe ma charakter pojęciowy ikształtowane jest wścisłej zależności od zdolności poznawczych człowieka.

2. Na znaczenie wpływa baza doświadczeniowa, która ma wymiar fizyczny, percepcyjny, językowy, społeczny ikulturowy.

3. Konwencjonalizacja jednostek językowych odbywa się przez interakcję.

4. Między rzeczywistością ajęzykiem pośredniczy poziom pojęciowy zbudowany ze struktur kognitywnych, acelem semantyki kognitywnej jest opis tych struktur.

5. Opis znaczenia nie powinien mieć charakteru redukcjonistycznego, czyli dążyć do opisu przez rozbicie na cechy proste, ale powinien uwzględniać wnioskowanie na podstawie prawidłowości rządzących całościami semantycznymi.

6. Znaczenie nie jest przypisywane wyłącznie jednostkom leksykalnym, ale tkwi również wstrukturze gramatycznej języka.

7. Znaczenie ma charakter encyklopedyczny izanurzone jest wpotocznej, anie naukowej wiedzy człowieka na temat jego samego iotaczającego go świata.

8. Nie istnieją wyraźne granice między podsystemami języka.

9. Nie da się oddzielić wiedzy językowej od innych rodzajów wiedzy.

Założenia językoznawstwa kognitywnego pozwalają zastosować tę teorię do badań nad dotychczas nieeksplorowanymi dziedzinami języka, przede wszystkim tam, gdzie prymarną funkcję pełni semantyka: wopisie znaczeń uznawanych za niedefiniowalne, wanalizie dyskursu, komunikatów multimodalnych5 oraz tekstów artystycznych (wtym wbadaniach nad przekładem), oraz wtedy, gdy uwzględnienie pierwszorzędnej roli semantyki może rzucić nowe światło na poruszane już od dawna, aniekiedy zdawałoby się rozwiązane, problemy (np. wbadaniach glottodydaktycznych).

1.1. Sposoby reprezentacji znaczenia w językoznawstwie kognitywnym

Nakreślone powyżej założenia stanowią punkt wyjścia wszystkich poszukiwań mieszczących się wnurcie kognitywnym. Mimo tego wspólnego fundamentu teoretycznego językoznawstwo kognitywne nie ma charakteru monolitycznego. Wjego ramach powstają teorie, które pod pewnymi względami ze sobą konkurują, prezentując różne wyjaśnienia tych samych–wydawałoby się–zjawisk. Część terminów jest wspólna większości lingwistów kognitywnych, część różnych pojęć ma podobne znaczenie, zdarza się również, że te same pojęcia są po prostu nazywane inaczej6. Nie będziemy się wtym podrozdziale zagłębiać we wszelkie możliwe zawiłości pojęciowe, ale skupimy się na wyjaśnieniu podstawowej terminologii stosowanej wramach paradygmatu kognitywnego.

Terminem podstawowym dla wszystkich modeli językoznawstwa kognitywnego jestkonceptualizacja,zktórą identyfikowane jest znaczenie. Nie jest ona tożsama zpojęciem, lecz ze wszelkimi przejawami doświadczenia mentalnego, obejmującymi: (1)pojęcia–nowe iutrwalone; (2)doznania zmysłowe, motoryczne iemocjonalne; (3)ocenę kontekstu fizycznego, językowego, społecznego ikulturowego oraz (4)pojęcia, które powstają na bieżąco, wtrakcie przetwarzania. Konceptualizacja ma naturę dynamiczną, interaktywną, obrazową (nie zaś propozycjonalną) oraz wyobrażeniową. Na wyobrażeniowy charakter konceptualizacji składają się operacje mentalne: metafora, amalgamat, fikcyjność ikonstruowanie przestrzeni mentalnych (Langacker 2009: 52–53).

Zgodnie zdefinicją Langackera na konceptualizację składają się treść pojęciowa oraz obrazowanie (Langacker 1987; 1998; 2009; Tabakowska 1995)7. Treść pojęciową tworzą przede wszystkimdomeny,przywoływane przez wyrażenia językowe wpostaci matrycy, czyli zbioru. Domena wskazuje na pojęcia lub sfery doświadczenia, czyli zakres wiedzy, wktórym osadzona jest powstająca konceptualizacja (Langacker 1987). Domeny tworzące matrycę pojęciową danego wyrażenia charakteryzują się różnym stopniem istotności iwyrazistości: leksem otwiera dostęp do zbioru domen wsposób preferencyjny, ato oznacza, że prawdopodobnie tylko część znich zostanie aktywowana (Langacker 2009: 77). Aby wyjaśnić kwestię względnej centralności domen składowych matrycy, Langacker posługuje się przykładem ikry ikawioru:

Wmyśl semantyki encyklopedycznej oba wyrażenia zapewniają potencjalny dostęp do tego samego zbioru domen: częścią naszej encyklopedycznej wiedzy oikrze jest to, że ikra pewnych gatunków ryb bywa podawana na stół ispożywana […], jak ito, że są to komórki jajowe ryb. Niemniej jednak wyrazy ikra ikawior mają wyraźnie różne znaczenia, aróżnica pomiędzy nimi polega na porządku, wjakim ułożone są domeny (tzn. na ich różnym stopniu centralności) (Langacker 2009: 77).

Domeną może być dowolna konfiguracja wiedzy, począwszy od najprostszych, takich jak czas, kolor czy temperatura, askończywszy na skomplikowanych, jak reguły gry wkrykieta (Taylor 2007: 273), atakże znajomość konwencji kulturowych oraz wiedzy na temat dialektalnego istylistycznego zróżnicowania języka (Taylor 2007: 241). Te domeny, których nie da się sprowadzić do innych, bardziej pierwotnych struktur poznawczych, nazywamy podstawowymi. Zalicza się do nich przede wszystkim czas, przestrzeń, doświadczenia zmysłowe, takie jak: kolor, wysokość dźwięku, temperatura, smak, zapach. „Same wsobie domeny podstawowe nie są pojęciami czy konceptualizacjami. Jest to raczej potencjał doświadczeniowy, wobrębie którego mogą zachodzić konceptualizacje ipojawiać się pojęcia” (Langacker 2009: 72). Domenami niepodstawowymi, czyli takimi, do których zrozumienia trzeba przywołać jakieś domeny podstawowe, mogą być doświadczenia zmysłowe, emocjonalne, fizyczne, atakże abstrakcyjne wytwory intelektu. Różnią się one pod względem złożoności: znajdują się wśród nich zarówno pojęcia minimalne (np. dobry), jak ipojęcia złożone (np. bieg), anawet całe systemy wiedzy (np. podział czasu według kalendarza). Należy zastrzec, że domeny podstawowe nie są „atomami pojęciowymi, zktórych powstają pojęcia bardziej złożone” (Taylor 2007: 236). Po pierwsze dlatego, że one same mogą być rozumiane za sprawą metafor wkategoriach innych domen (przykładem może być wysokość dźwięku lub temperatury), apo drugie–ich struktura zależy od roli, jaką odgrywają one wkonceptualizacji innych domen.

Terminami powiązanymi zpojęciem domeny są rama, skrypt oraz wyidealizowany model kognitywny (ang. idealised cognitive model, wskrócie ICM). Koncepcjęramystworzył Charles Fillmore wlatach siedemdziesiątych XX wieku. Wywiódł ją zteorii ról semantycznych, anastępnie rozwinął, kilkakrotnie zmieniając jej definicję. Początkowo, wodróżnieniu od tzw. sceny, będącej kulturowo uwarunkowaną strukturą pojęciową powiązaną zdanym leksemem, rama stanowiła „system językowych wyborów” aktywowanych wzwiązku ztekstowym użyciem jakiegoś wyrazu. Później Fillmore zrezygnował zpojęcia sceny izdefiniował ramę jako sieć powiązanych pojęć (Szymańska 2010). Taylor przeciwstawia ramieskrypt,czyli następstwo wczasie izwiązki przyczynowo-skutkowe łączące „zdarzenia istany wobrębie pewnych ram czynnościowych” (Taylor 2001: 127–128). Jego zdaniem ramy są statycznymi układami domen, skrypty zaś dynamicznymi. Przykładem ramy może być transakcja handlowa, która stanowi tło dla charakterystyki takich wyrażeń jak kupić, cena, sprzedać, koszt itd. Rodzajem skryptu może być zkolei wizyta wrestauracji, która dostarcza kontekstu dla zrozumienia takich czynności jak zamawianie posiłku czy dawanie napiwku. Ramy iskrypty są wykorzystywane przez badaczy zajmujących się sztuczną inteligencją: mają umożliwiać przedstawienie wpamięci komputera aspektów wiedzy istotnych dla przetwarzania tekstów8. Należy zwrócić uwagę na związek znaczenia wyrażeń językowych ipowiązanych znimi ram oraz skryptów. To nie proste, niedefiniowalne pojęcia składają się na znaczenie złożonego wyrażenia, lecz pewna konfiguracja pojęciowa, odbierana przez umysł jako całość, pozwala uchwycić mniej złożone sensy.

Według Langackera domena jest ogólniejszym pojęciem niż rama iskrypt, ponieważ tych ostatnich nie można utożsamić zdomenami podstawowymi, można je natomiast potraktować jako rodzaje domen złożonych (Langacker 2009: 74). Przykłady podawane wliteraturze pokazują, że ramy iskrypty charakteryzują się większą złożonością niż domeny oraz są uwarunkowane kulturowo, podczas gdy domeny są motywowane zarówno przez kulturę, jak iprzez interakcje człowieka ze światem natury. Taylor (2001) jako przykład ramy podaje układ domen przywoływanych przez słowo matka. Pochodzi on zpracy Lakoffa (1987), który przytacza go jako egzemplarz kognitywnego modelu wiązkowego, czyli całości łączącej kilkamodelipoznawczych,prostszej pod względem psychologicznym niż każdy zmodeli składowych. ICM wujęciu Lakoffa to struktura całościowa ocharakterze Gestalt, porządkująca naszą wiedzę. Jak podkreśla Przybylska, wyidealizowany model poznawczy „nie jest oparty bezpośrednio na obiektywnej rzeczywistości, lecz na tym, jak człowiek doświadcza tej rzeczywistości”, jest więc „czymś różnym zarówno od zewnętrznego, pozajęzykowego świata, jak iod samego doświadczenia tego świata” (Przybylska 2006: 27). Przykłady ICM-ów, które podaje Lakoff, sugerują, że mogą być one uznane za domeny odość znacznym stopniu złożoności. Podkreśla się, że wyidealizowane modele poznawcze nie są czymś realnym, np. siedmiodniowe tygodnie nie istnieją obiektywnie wprzyrodzie. Zdaniem Langackera ICM ma tym samym najwęższe zastosowanie spośród do tej pory omówionych pokrewnych terminów, ponieważ nie można go odnieść np. do toczącego się dyskursu ani fizycznych okoliczności zdarzenia mownego (Langacker 2009: 75). Jako że model poznawczy nie wpełni ściśle przystaje do świata, dochodzi do efektów prototypowych. Oznacza to, że składowe rzeczywistości, sytuacje, sposoby myślenia mogą być podobne do elementów sugerowanych przez model iwówczas są kategoryzowane jako takie, które znajdują się blisko prototypu. Im bardziej się jednak różnią od modelu, tym dalej im do centrum, abliżej granic danej kategorii.

Warto wskazać też różnice między domeną aprzestrzeniąmentalną.Drugi zprzywołanych terminów wprowadził wlatach osiemdziesiątych XX wieku Fauconnier. Wlatach dziewięćdziesiątych badacz stworzył teorię przestrzeni mentalnych, później zaś sformułował wraz zTurnerem teorię integracji pojęciowej (por. Fauconnier, Turner 2002; Libura 2010). Według Fauconniera iTurnera przestrzenie mentalne to pakiety pojęciowe „konstruowane dla celów rozumienia idziałania wtrakcie myślenia imówienia” (Fauconnier, Turner 2002: 40 [za: Kardela 2006]). Zdaniem Langackera różnica między domeną aprzestrzenią mentalną polega na tym, że pierwsza jest zwykle rodzajem utrwalonej wiedzy pozostającej wrelacji do znaczeń leksykalnych, zkolei druga podkreśla brak ciągłości pojęciowej, podział struktury konceptualnej na względnie autonomiczne regiony. Używa się tego terminu przede wszystkim do nazywania rezultatów dynamicznych przekształceń tworzonych wdyskursie (Langacker 2009: 80).

Rodzajami operacji dokonywanych na domenach, na które zwrócili uwagę kognitywiści, są metafora imetonimia pojęciowa. Zgodnie zkoncepcją Lakoffa iJohnsona (1988 [1980]) metafora polega na relacji odwzorowania między dwiema domenami: źródłową–bardziej konkretną, bliższą doświadczeniu, idocelową–abstrakcyjną, której poszczególne aspekty pojmujemy dzięki odniesieniu do domeny źródłowej. Jest to mechanizm konstytuujący nasze myślenie, jedna znajbardziej podstawowych operacji poznawczych, która znajduje swoje odzwierciedlenie wjęzyku. Przykładowo mówienie oczasie możliwe jest dzięki odwzorowaniu domeny przestrzeni, stąd wyrażenia: Strasznie mi się wloką te godziny, Najgorsze jeszcze przede mną, Nadeszły chude lata. Metonimia pojęciowa wodróżnieniu od metafory zawiera jedną domenę lub jedno pojęcie. Celem metonimii jest uzyskanie dostępu do domeny za pomocą jej części (lub odwrotnie–do części domeny za pomocą całej domeny) bądź dostępu do części domeny przez inną jej część (Kövecses 2000: 4–6). Metonimia pojęciowa jest podstawą takich wyrażeń jak: Saksofon ma dziś grypę, Biały Dom milczy, Pamiętajcie oHiroszimie (Lakoff, Johnson 1988: 70–71).

Metafory uwypuklają iukrywają różne aspekty danego pojęcia. Cząstkowość struktury metaforycznej jest jednym zpowodów sceptycznego podejścia Taylora (2007) do teorii Lakoffa iJohnsona. Badacze ci jednak nie uznają tej cechy za słaby punkt swojej teorii. Lakoff, analizując działanie metafory wjęzyku, sformułował tzw. zasadę inwariancji, która brzmi: „[…] odwzorowanie metaforyczne zachowuje kognitywną topologię (to jest, strukturę schematów wyobrażeniowych) dziedziny źródłowej wsposób zgodny zinherentnymi właściwościami dziedziny docelowej” (Libura 2000a: 64). Odwzorowanie zdomeny źródłowej nie przebiega mechanicznie–to struktura dziedziny docelowej decyduje otym, jakie elementy dziedziny źródłowej są odwzorowywane. Niewykorzystana część metafory pojęciowej może stanowić tworzywo języka poetyckiego (Lakoff, Johnson 1988: 77–79; Lakoff, Turner 1989).

Wteorii metafor pojęciowych duże znaczenie przypisuje się tzw. schematom wyobrażeniowym. Są to przedpojęciowe struktury wiedzy, wyabstrahowane przez człowieka „zsumy wielu wcześniejszych doświadczeń wynikających znieustannej interakcji: ja, czyli podmiot poznający, konceptualizator, arzeczywistość” (Przybylska 2006: 26). Powstają one przez ciągłe powtarzanie sekwencji aktywności motorycznej isensorycznej iodgrywają istotną rolę worganizowaniu naszego myślenia abstrakcyjnego9. Przechowywany wumyśle schemat ulega aktywacji wtrakcie różnych procesów umysłowych: percepcji ikategoryzowania rzeczywistości, myślenia, przeprowadzania rozumowania, uczenia się–„[…] wszystko, co jawi się wdoświadczeniu, jest dopasowywane do schematu” (Libura 2000a: 26). Schematy wyobrażeniowe nadają porządek naszej percepcji, ale również–wakcie tworzenia metafory–„użyczają swojej struktury doświadczeniom bardziej skomplikowanym, które nie są dostatecznie jasno iwyraźnie zarysowane” (Libura 2000a: 55). Do schematów wyobrażeniowych należą m.in.: góra-dół, równowaga, pojemnik, centrum-peryferie, cykl, ścieżka-cel (Libura 2000a: 27–36). Termin ten zpsychologii poznawczej na grunt językoznawstwa kognitywnego przeszczepił Mark Johnson, astosuje się go nie tylko wbadaniach nad metaforą imetonimią pojęciową. Wśród polskich prac wykorzystujących to narzędzie można wskazać analizy semantyki przyimków oraz prefiksów czasownikowych Renaty Przybylskiej (2002; 2006).

Wjednej znowszych prac Langacker (2009) zrównuje metaforę zodkrytym przez Fauconniera iTurnera zjawiskiemamalgamatupojęciowego (Fauconnier, Turner 2002).Amalgamat, zgodnie zteorią integracji pojęciowej, jest rezultatem tzw. operacji stapiania, wwyniku której zdwóch wyjściowych przestrzeni powstaje nowa, obdarzona własnościami, których nie otrzymalibyśmy przez zsumowanie czy proste zestawienie tych przestrzeni: „[…] tworzenie amalgamatu rozpoczyna się od ustalenia powiązań między odpowiadającymi sobie elementami przestrzeni wyjściowych, których wspólną strukturę odzwierciedla przestrzeń generyczna. Fragmenty struktury trzech przestrzeni (dwóch wyjściowych oraz generycznej), awszczególności podstruktury wyróżnione dzięki odwzorowaniom, zostają wselektywny sposób przeniesione do czwartej przestrzeni–amalgamatu–itam stopione wnową całość. Wwyniku trzech procesów–kompozycji, uzupełniania irozwoju–wamalgamacie wyłania się nowa struktura, której nie było wpoprzednich przestrzeniach” (Libura 2010: 73). Langacker, wyjaśniając mechanizm powstawania amalgamatu, stwierdza: „Metafora polega na budowaniu powiązań między przestrzenią źródłową, przestrzenią docelową iprzestrzenią amalgamatu”, dodając: „Przestrzeń amalgamatu powstaje wwyniku rzutowania przestrzeni wyjściowej na docelową. Jest koncepcję hybrydową, fikcyjną wnaturze, łączącą wybrane atrybuty każdej zprzestrzeni wyjściowych” (Langacker 2009: 80–81). Przymiotniki źródłowy idocelowy są kojarzone jako określenia stosowane wteorii metafory pojęciowej. Współcześnie od teorii integracji pojęciowej oczekuje się, że będzie tłumaczyć również te zjawiska, które przez dwadzieścia lat stanowiły pole badawcze kognitywnej teorii metafory imetonimii–jednego znajbardziej rozpoznawalnych inajszerzej stosowanych modeli wyjaśniających zjawiska językowe wramach językoznawstwa kognitywnego10.

Wspomniany wyżej brak rozróżnienia między metaforą aamalgamatem wpracy Langackera ma swoją przyczynę wsposobie, wjaki Fauconnier iTurner określają rolę integracji pojęciowej wmyśleniu ijęzyku. Wksiążce The Way We Think rozszerzają oni teorię amalgamatów do tego stopnia, że obejmuje ona również proste operacje kognitywne. Struktura jednego ztypów amalgamatów, tzw. siatki jednozakresowej, powstaje wwyniku przeniesienia ramy kognitywnej zjednej przestrzeni do drugiej. Trudno dla tego typu operacji wskazać nowe znaczenie wyłaniające się wwyniku integracji przestrzeni mentalnych, co nie zgadza się zprzedstawioną przez nich definicją amalgamatu. Można zatem wnioskować, że operacje wsiatkach jednozakresowych są tożsame zmetaforami pojęciowymi, wktórych dochodzi jedynie do odwzorowania pewnych aspektów domeny źródłowej na docelową, nie zaś do wyłonienia się zupełnie nowego znaczenia (Libura 2010: 95, 124–125). Libura stwierdza, że „tylko bardziej skomplikowane–ajednocześnie bardziej prototypowe–rodzaje integracji pojęciowej wiążą się zpowstawaniem nowej struktury znaczeniowej. Istnieją zatem takie wyrażenia językowe, które zpowodzeniem mogą być wyjaśniane za pomocą metafor pojęciowych, choć wpracy Rethinking metaphor Fauconnier iTurner stwierdzają, że metafora stanowi zaledwie powierzchniową manifestację integracji pojęciowej” (Libura 2010: 124–125).

Przedstawiciele poszczególnych nurtów lingwistyki kognitywnej prezentują rozmaite podejścia do opisu języka, stawiając na pierwszym miejscu różne aspekty operacji mentalnych, aco za tym idzie–odmienne aspekty języka. Wszystkie jednak sposoby opisu znaczenia są zgodne zgłównymi założeniami kognitywnej teorii języka, co pozwala na zaliczanie tych wszystkich opisów do jednej teorii językoznawczej.

1.2. Anna Wierzbicka– metajęzyk semantyczny iscenariusze kulturowe

Osobnego omówienia wymaga teoria opisu semantycznego zaproponowana przez Annę Wierzbicką, badaczkę, która inspirowała twórców językoznawstwa kognitywnego, ale również poddawała krytyce wiele przyjętych przez kognitywistów rozwiązań. Lingwistka wniosła ogromny wkład wbadania nad wyrażaniem emocji wwielu językach. Opis jej spostrzeżeń na temat interesującej nas dziedziny wymaga przedstawienia narzędzi, którymi się posługuje.

Sformułowana przez Wierzbicką koncepcja języka oraz postulaty stawiane przez nią wobec językoznawstwa utorowały drogę językoznawstwu kognitywnemu ipomogły wykrystalizować jego główne tezy. Wierzbicka sprzeciwiała się spychaniu semantyki na margines lingwistyki, wskazując na szkodliwość zarówno behawioryzmu, jak igeneratywizmu, które–jej zdaniem–na wiele lat zatrzymały badania nad językiem jako „narzędziem służącym do przekazywania znaczeń” (Wierzbicka 2006: 19). Według badaczki semantyka powinna zaleźć się wcentrum zainteresowania lingwistów, których zadaniem jest mierzenie się ztrudnościami, jakie wiążą się zdefiniowaniem czegoś tak nieuchwytnego jak pojęcia. Również badania nad składnią czy przypadkami gramatycznymi sprowadzają się wopinii Wierzbickiej do poszukiwań zawartych wjęzyku sensów. Zaczerpnięte od Leibniza przekonanie otym, że język stanowi odzwierciedlenie ludzkiego umysłu (Wierzbicka 1999b: 50), doprowadziło do poszukiwania uniwersalnych elementarnych jednostek semantycznych. Postulowane przez filozofa poszukiwanie alfabetu ludzkich myśli było, zdaniem lingwistki, równoznaczne zposzukiwaniem „atomów znaczenia”, dzięki którym można opisywać sensy wyrażane wkażdym języku (Wierzbicka 1999b: 6).

Anna Wierzbicka problem zdefiniowaniem znaczeń tłumaczy tym, że większość znich jest złożona ispecyficzna kulturowo, naukowcy zaś próbują wyjaśniać jedne złożone pojęcia za pomocą innych, stąd bierze się hermeneutyczne koło ciągłego definiowania ignotum per ignotum. Badaczka proponuje metodę definiowania znaczenia złożonych pojęć za pomocą uniwersalnych pojęć prostych, takich jak ‘czuć’, ‘chcieć’, ‘wiedzieć’, ‘myśleć’, ‘mówić’, ‘robić’, ‘dziać się’, ‘jeśli’ itp. Jej zdaniem można inależy wskazać zbiór niedefiniowalnych (rozumianych same przez się) znaczeń elementarnych wspólnych wszystkim językom. Odpowiadanie sobie znaczeń wsferze pojęciowej nie musi pociągać za sobą odpowiedniości leksykalnej, tzn. dane pojęcie uniwersalne może być wjednym języku wyrażane za pomocą jednego słowa, winnym–za pomocą dwóch, wkolejnym–za pomocą pojedynczego morfemu. Definicje znaczenia nie mogą odsyłać do wiedzy naukowej, lecz mają odzwierciedlać stan wiedzy zwykłych użytkowników języka11. Podejście to bliskie jest proponowanemu przez kognitywistów badaniu kategorii naturalnych oraz traktowaniu wiedzy językowej jako wiedzy encyklopedycznej.

Anna Wierzbicka zastrzega, że „mimo istnienia uniwersaliów systemy semantyczne różnych języków są na ogół wziąwszy niepowtarzalne iuwarunkowane kulturowo” (Wierzbicka 2006: 31), aco za tym idzie–pojęć złożonych nie można wyjaśniać, tłumacząc je rzekomym ekwiwalentem zinnego języka. Nawet pojęcia tak centralne dla angielskiego dyskursu naukowego, jak mind, muszą być uznane za kulturowe artefakty, nie bardziej uniwersalne od niemieckiego Geist, rosyjskiego duša czy samoańskiego loto. Nie znaczy to, według badaczki, że złożone techniczne terminy mają być zawsze zastępowane przez proste semantycznie słowa. Skomplikowane pojęcia muszą być jednak wprowadzane iwyjaśniane przez intuicyjnie zrozumiałe pojęcia, takie jak ‘ciało’, ‘robić’, ‘czuć’ (Wierzbicka 1999a). Porównywanie systemów semantycznych jest możliwe dzięki „izomorfizmowi istniejącemu między wykładnikami pojęć elementarnych” różnych języków (Wierzbicka 2006: 33). Jak zauważa badaczka, jej „teoria wpewnym sensie łączy radykalny uniwersalizm zdogłębnym relatywizmem. Przyjmuje wyjątkowość wszystkich systemów językowo-kulturowych, proponując zestaw wspólnych jednostek, za pomocą których można ująć iopisać różnice między tymi systemami” (Wierzbicka 2006: 33).

Lingwistka rozróżnia centrum znaczeniowe wyrażeń językowych od znaczenia asocjacyjnego: „[…] jeśli słowo wyrażające pojęcie czuć jest polisemiczne iznaczy ‘czuć’ oraz ‘żołądek’ […] łatwo uwierzyć, że słowo to daje inne »odczucia« niż angielskie słowo feel lub słowo rasa wjęzyku acechnese” (Wierzbicka 2006: 48). Są to istotne różnice, nie mają jednak, zdaniem badaczki, charakteru stricte semantycznego isą ujmowane przez teorię NMS (naturalnego metajęzyka semantycznego) jako tzw. rezonans.

Ważnym obszarem, wobrębie którego nie ma zgody między kognitywizmem ateorią Wierzbickiej, jest rola prototypów ipodobieństwa rodzinnego wopisie językoznawczym. Według polskiej badaczki nadmierna popularność tych koncepcji przyczyniła się do rozpowszechniania „antydefinicyjnej” postawy wśród językoznawców. Założenie, że podejście klasyczne jest gorsze od podejścia prototypowego, jest jej zdaniem niefortunne, ponieważ wopisie językoznawczym jest miejsce dla obu metod. Unikanie precyzyjnego opisu za pomocą cech koniecznych iwystarczających uznaje ona za usprawiedliwianie uchylania się od jakiegokolwiek definiowania. Prototypy mogą być, według Wierzbickiej, użyteczne wopisie znaczenia, gdy się je połączy zdefinicjami bądź eksplikacjami werbalnymi. Takie podejście proponuje badaczka przyjąć, gdy celem jest definiowanie znaczeń nazw kolorów iśrodków językowych określających uczucia.

1.3. Gramatyka kognitywna: główne założenia ipojęcia

Wpodrozdziale 1.1. zostały przedstawione formy reprezentowania treści pojęciowej wyróżniane przez lingwistów kognitywnych. Podrozdział 1.3. skupia się na założeniach iterminach gramatyki kognitywnej, teorii należącej do szeroko pojmowanego nurtu językoznawstwa kognitywnego. Omówiona terminologia jest głównym narzędziem badawczym zastosowanym wczęści analitycznej rozprawy.

1.3.1. Podstawowe wymiary obrazowania

Niniejszy podrozdział poświęcony jest drugiemu aspektowi konceptualizacji, wskazywanemu przede wszystkim wramach gramatyki kognitywnej, czyli sposobom obrazowania treści pojęciowej. Wcelu opisu operacji mentalnych stosowanych do organizacji treści pojęciowej przedstawiciele nurtu gramatyki kognitywnej posługują się tzw. metaforą oglądu (Langacker 1987; 1998; 2009; Taylor 2007; Tabakowska 1995), która przyrównuje poszczególne zjawiska związane zobrazowaniem do parametrów widzenia wykorzystywanych wmomencie fizycznej obserwacji sceny. Do wymiarów obrazowania należą następujące operacje: (1) uszczegółowienie, (2) ogniskowanie, (3) wyróżnienie oraz (4)perspektywa.

Uszczegółowienie(ziarnistość, rozdzielczość) dotyczy stopnia iszczegółu precyzji wopisie danej sytuacji. Jego przeciwieństwem jest schematyczność.Schematodnosi się do każdej jednostki fonologicznej, semantycznej lub fonologicznej, która charakteryzuje się większą ogólnością niż inna reprezentacja tego samego elementu (Langacker 1995). Inaczej rzecz ujmując: „Schemat jest abstrakcyjną charakterystyką wpełni zgodną ze wszystkimi elementami definiowanej kategorii […]; jest to zintegrowana struktura ucieleśniająca wspólnotę swoich elementów–pojęć bardziej szczegółowych, będących kontrastującymi ze sobą uszczegółowieniami schematu” (Langacker 1987: 371 [za: Kardela 2005]). Schemat zostaje wyłoniony na podstawie wspólnych cech jego konkretyzacji: „[…] wspólny element immanentnie zawarty wpowtarzalnych doświadczeniach ulega wzmocnieniu iuzyskuje własny status kognitywny, tym samym wywierając wpływ na dalszy tok przetwarzania” (Langacker 2003: 39). Orelacji schemat–konkretyzacja może być mowa tylko wtedy, gdy istnieją co najmniej dwie konkretyzacje schematu. Za najbardziej wyrazistą konkretyzację uznawany jest prototyp. Kategoryzacja wyrażeń językowych jest reprezentowana przez sieć relacji wiążących je ze schematami: gdy wyrażenie wpełni konkretyzuje schemat (zachowuje wszystkie jego cechy), mówi się orelacji uszczegółowienia, kiedy zaś występują rozbieżności między wyrażeniem aschematem, mamy do czynienia zrozszerzeniem, które może mieć charakter metaforyczny bądź metonimiczny (Langacker 2009: 62; Tabakowska 1995: 50). Za pomocą modelu sieciowego można zaprezentować polisemiczną strukturę znaczeniową jednostki leksykalnej. Wśród pokrewnych znaczeń niektóre są bardziej centralne iprototypowe niż pozostałe, część znich okazuje się schematami wstosunku do tych sensów, które są ich uszczegółowieniami bądź rozszerzeniami. Langacker, prezentując model sieciowy, zastrzega jednak, że należy pamiętać ojego metaforycznym charakterze. Nie należy „wyciągać pochopnie wniosku, że schemat ijego konkretyzacje są całkowicie od siebie odrębne iprzechowywane są osobno. […] schematy przejawiają się niejako immanentnie wswoich konkretyzacjach ichociaż same schematy mogą być niekiedy dostępne niezależnie od własnych konkretyzacji […], to przecież nie ma tu domniemania, że tak się musi dziać zawsze iwszędzie” (Langacker 2003: 38–39). Ponadto konwencjonalizacja poszczególnych sensów nie jest procesem otrwałych skutkach: raczej każdy model ulega wciąż dynamicznym (ale nie nagłym) przeobrażeniom.

Ogniskowaniepolega na wyborze treści pojęciowej spośród zbioru domen poznawczych (matrycy) danego wyrażenia oraz konfiguracji tej treści, którą charakteryzuje się jako rozróżnienie pierwszego planu itła. Znany zpercepcjiukładfigura–tłoznajduje zastosowanie wszędzie tam, gdzie jedno pojęcie poprzedza inne iumożliwia wjakiś sposób jego zaistnienie. Przykładem zastosowania tego układu może być konkretne zdanie, które przywołuje wiedzę ztła jako podstawę swojego znaczenia, jak również relacja między domenami wmetaforze: domena źródłowa stanowi pojęciowe tło, za pomocą którego zachodzi proces rozumienia domeny docelowej. Układ figura–tło przejawia się również wdyskursie. Na przykład wnarracji statyczne opisy postaw bohaterów isytuacji pełnią funkcję tła, na którym sekwencja zdarzeń (wątek) występuje jako rodzaj figury (Langacker 2009: 89–90). Zjawiskiem ogniskowania obecnym wznaczeniach pojedynczych wyrażeń jestkompozycja,czyli budowanie złożeń zprostszych elementów symbolicznych. Na znaczenie wyrażenia złożonego składa się również jego ścieżka kompozycjonalna, czyli relacja do jego komponentów. Mimo że złożone pojęcie odgrywa rolę prymarną (jest figurą), postrzegane jest na tle semantycznych struktur składowych na wszystkich niższych poziomach. Wyrażenia złożone cechują się różnym stopniem analizowalności, to znaczy ich struktury składowe różnią się wyrazistością oraz rolą, jaką odgrywają wjej powstawaniu. Uwzględnienie ścieżki kompozycjonalnej wopisie znaczenia pomaga zrozumieć, dlaczego dwa wyrażenia nigdy nie mają dokładnie tego samego znaczenia (Langacker 2009: 91–93). Oprócz kontrastu między pierwszym planem itłem ogniskowanie obejmuje również proces wstępnego wyboru treści pojęciowej: wkażdej domenie składającej się na matrycę wyrażenie wyznacza swójzakres,czyli strefę aktywną (Langacker 2009: 95; por. Taylor 2007: 130–131). Czasami czyni się rozróżnienie między zakresem maksymalnym wyrażenia, czyli pełną informacją, jaką ono niesie, azakresem bezpośrednim, czyli tą częścią informacji, która okazuje się bezpośrednio konieczna do osiągnięcia określonego celu poznawczego. Zakres bezpośredni jest wstosunku do zakresu maksymalnego informacją pierwszoplanową. Przykładowo dla słowa łokieć domena ciała stanowi zakres maksymalny, zkolei domena ręki–zakres bezpośredni (Langacker 2009: 95–96).

Dwoma szczególnymi rodzajamiwyróżnieniasą profilowanie iukład trajektor–landmark.Profilto część bazy pojęciowej wyrażenia, na której skupiona jest uwaga poznawcza, czyli ognisko uwagi wobrębie bezpośredniego zakresu wyrażenia. Innymi słowy–jest to to, co desygnuje dane wyrażenie. Przykładem zróżnicowania znaczenia pod względem profilu przy tej samej treści pojęciowej są czasowniki dokonane iniedokonane. Czasownik dokonany desygnuje całe zdarzenie, aniedokonany, chociaż nie zmienia treści pojęciowej, aktywuje dowolny fragment środkowej części zdarzenia (Langacker 2009: 102). Zjawisko profilowania wyjaśnia też–zdaniem Langackera–powszechne wjęzyku zjawisko metonimii: „[…] mówimy ometonimii wtedy, kiedy wyrażenie, które zwyczajowo profiluje jeden obiekt, zostaje użyte do profilowania innego obiektu, zktórym–wobrębie pewnej domeny–zostaje skojarzone” (Langacker 2009: 103). Przykładem metonimii jest rozszerzenie typu artysta–dzieło artysty: Miró wisi wgalerii na końcu korytarza. Metonimia jest ponadto źródłem polisemii: zachodzi ona, ilekroć pewne rozszerzenie metonimiczne zostaje utrwalone wjęzyku iskonwencjonalizowane.

Układtrajektor–landmarkpozwala zkolei odróżnić znaczenie wyrażeń relacyjnych, które mają tę samą bazę pojęciową iprofilują tę samą relację wobrębie tej bazy. Uczestnik relacji wyróżniony wnajwiększym stopniu to trajektor, aobiekt odrugorzędnym wyróżnieniu to landmark. Wprzypadku niektórych struktur relacyjnych, np. czasowników ukraść iokraść, wyróżniamy więcej niż jeden obiekt funkcjonujący jako landmark. Istnieją również takie, które nie przywołują żadnego. Dotyczy to czasowników nieprzechodnich (Słońce świeci), które profilują relację między trajektorem aczynnością lub zmianą stanu, wktórej on uczestniczy (Taylor 2007: 254). Wyrażenia mające tę samą treść iprofilujące tę samą relację różnią się znaczeniem, kiedy zachodzą wnich różne konfiguracje trajektora ilandmarka. Przykładem mogą być tutaj przyimki nad ipod, opisujące obiektywnie tę samą sytuację, lecz winny sposób obrazujące układ sceny (Langacker 2009: 105–107).

Perspektywaodnosi się przede wszystkim do układu oglądu sceny oraz wymiaru temporalnego konceptualizacji. Układ oglądu jest relacją między konceptualizatorem apostrzeganą sytuacją. Wstandardowym układzie oglądu obserwatorzy znajdują się wjakimś określonym miejscu, zktórego obserwują zdarzenia istany zachodzące wświecie. Przykładowym odstępstwem od standardowego układu oglądu jest sytuacja, kiedy konceptualizator znajduje się wruchu. Tym, co uzasadnia mierzenie czasu drzemki za pomocą odległości wzdaniu Spała przez 50 kilometrów, jest presuponowana podróż (Langacker 2009: 110). Jednym zistotnych aspektów perspektywy jest relacja między rolą przedmiotu ipodmiotu konceptualizacji, czyli stopień tzw. upodmiotowienia (Tabakowska 1995: 73). Wnajbardziej typowym sposobie konstruowania sceny obserwator znajduje się na jej obrzeżu, czyli podmiot dokonujący oglądu nie jest jednocześnie przedmiotem obserwacji. Wtakiej sytuacji mówimy onajwyższym stopniu upodmiotowienia konceptualizatora czy konceptualizacjipodmiotowej.Obrazowanieprzedmiotowepolega na tym, że obserwator jest jednocześnie podmiotem iprzedmiotem obserwacji. Najprostszym wprzypadku języka polskiego środkiem umożliwiającym konceptualizatorowi umieszczenie samego siebie wobrębie sceny jest zaimek osobowy pierwszej osoby liczby pojedynczej (Tabakowska 1995: 74). Różnicę między konceptualizacją przedmiotową ipodmiotową ilustruje para zdań:

(a) Stoję na ulicy; dookoła tłum ludzi.

(b) Stoję na ulicy; dookoła mnie tłum ludzi.

Przykład (b) wyraża obrazowanie owyższym stopniu uprzedmiotowienia niż zdanie (a).

Ostatnim zomawianych wymiarów obrazowania jest wymiarczasowy.Realizuje się on na dwa sposoby: jako czas przetwarzania (konceptualizacja jako dynamiczny proces zachodzi wczasie) oraz czas będący przedmiotem konceptualizacji (występuje wkonceptualizacji każdego zdarzenia). Kolejność postrzegania zdarzeń jest wstandardowym układzie oglądu odzwierciedlana wkolejności ich konceptualizowania iopisywania, jak wzdaniu: Rzuciłam pracę, wyszłam za mąż iurodziłam dziecko. Uszeregowanie na poziomie pojęciowym nie zawsze jest jednak wymuszone przez układ elementów na powierzchni, wmowie. Oba zdania: (a) Pagórek łagodnie wznosił się od rzeki i(b) Pagórek łagodnie opadał ku rzece, opisują tę samą konfigurację przestrzenną, aróżnica między nimi sprowadza się do różnicy wkierunku mentalnego skanowania, czyli operacji umożliwiającej rejestrowanie nieprzerwanego ciągu bytów wcałej rozciągłości. Skanowanie mentalne odnosi się nie tylko do domeny przestrzeni, ale również pozwala np. „przemierzać mentalnie pewien zbiór uszeregowanych alternatyw poznawczych” (Langacker 2009: 120). Kiedy skanujemy złożoną scenę, zwracając uwagę na jej poszczególne elementy, dokonujemy ich zsumowania lub nałożenia na siebie–posługujemy się tzw. skanowaniem holistycznym (sumarycznym). Skanowanie sekwencyjne polega na aktywowaniu stanów składowych wczasie przetwarzania takim, że wdanym czasie przetwarzania T jedynym stanem, na którym się skupia uwaga, jest ten, wktórym zachodzi czas konceptualizowany t. Rozróżnienie między skanowaniem holistycznym iskanowaniem sekwencyjnym jest istotnym czynnikiem wdefiniowaniu kategorii gramatycznych: rzeczy oraz relacji.

1.3.2. Czasownik jako relacja temporalna

Wgramatyce kognitywnej kategoria gramatyczna wyrażenia jest determinowana przez charakter jego profilu. Podstawowym rozróżnieniem ze względu na sposób profilowania treści pojęciowej jest rozróżnienie między rzeczą arelacją–rozumianymi bardzo ogólnie iabstrakcyjnie. Wyrażeniem językowym, które profiluje rzecz, jest rzeczownik. Elementy innych kategorii:przymiotniki, przysłówki, przyimki, czasowniki–profilują relacje. Istnieją różne rodzaje relacji, ale dzieli się je przede wszystkim na proste izłożone oraz na procesy, czyli relacje rozwijające się wczasie, irelacje nieprocesualne. Relacja prosta ma jeden stan składowy–jej przykładem jest przyimek wwyrażeniu określającym pojedynczą lokalizację, np. leży na stole. Relacja złożona obejmuje serię stanów, czego przykładem są wyrażenia przyimkowe opisujące wiele lokalizacji, które tworzą tzw. ścieżkę przestrzenną, np. na stół. Przyimki konstruują treść atemporalnie: wymiar czasowy pozostaje wtle lub jest nieobecny, askładające się na relację stany są ujmowane jako całość, czyli za pomocą skanowania holistycznego. Do atemporalnych wyrażeń relacyjnych należą również przymiotniki, przysłówki iimiesłowy. Jeśli treść konstruowana jest temporalnie, czyli tak, że wymiar czasowy jest wyprofilowany, arozwój relacji wczasie jest przedstawiony za pomocą skanowania sekwencyjnego, mamy do czynienia zprocesem. Wyrażeniem profilującym proces jest wgramatyce kognitywnej czasownik (Langacker 2009: 138–139). Termin czasownik wtakim rozumieniu nie odpowiada wpełni jego tradycyjnemu zastosowaniu. Używa się go „do określania jakiegokolwiek wyrażenia profilującego proces” (Langacker 2009: 470), awięc zarówno form osobowych czasownika, jak iwyrażeń zawierających taką formę, czyli fraz werbalnych ipełnych zdań. Co ważne, procesów nie profilują czasowniki wbezokoliczniku ani imiesłowy, które wyróżniają wszystkie stany składowe procesu czasownikowego, ale relacja jest skanowana holistycznie. Perspektywa holistyczna stanowi krok wkierunku nominalizacji, czyli przesunięcia profilu zrelacji na rzecz (Langacker 2009: 163).

Podstawą wyodrębniania wyrażeń relacyjnych jest obecność dwóch uczestników lub jednego centralnego uczestnika, którym zawsze jest trajektor. Kluczową dla nas właściwością procesów jest ich pojęciowa zależność, oznaczająca, że zdarzenie „nie może być konceptualizowane bez konceptualizacji uczestników, którzy wchodzą winterakcję” (Langacker 2009: 145). Nawet wprzypadku braku rzeczownika wmiejscu podmiotu lub dopełnienia czasownik schematycznie przywołuje uczestników iumieszcza ich wcentrum uwagi (Langacker 2009: 156).

1.3.3. Implikacje metodologiczne

Zaprezentowana charakterystyka najważniejszych założeń językoznawstwa kognitywnego ukazuje wielość koncepcji iróżnorodność wykorzystywanej terminologii. Nakreślenie podstaw teorii, wktórej będziemy się obracać, jest niezwykle istotne, nie wszystkie jednak zwymienionych wtym rozdziale narzędzi opisu języka będą równie ważne wnaszych rozważaniach. Wanalizie materiału badawczego będziemy wykorzystywać przede wszystkim takie pojęcia jak baza, profilowanie, uczestnik relacji, układ trajektor–landmark. Będziemy się również posługiwać koncepcją kategorii pojęciowej wrozumieniu Rosch. Zjawiskami, do których będziemy się nieustannie odwoływać wtoku analiz, są prototypowość oraz centrum iperyferie semantyczne.

1.4. Struktura składniowa ajej aspekt semantyczny

Wrozprawie analizujemy semantykę wybranych czasowników wodniesieniu do towarzyszących im struktur gramatycznych. Wybrany sposób opisu wynika zprzyjęcia definicji znaczenia jednostek językowych jako treści pojęciowej sportretowanej wokreślony sposób. Na semantykę czasowników jako jednostek pojęciowo zależnych składa się bowiem ich gramatyczne uwikłanie. Przedmiotem naszej analizy są zatem typy zdań, wktórych polskie czasowniki strachu pełnią funkcję członu głównego.

Opis konstrukcji składniowych występujących przy czasowniku polskie językoznawstwo zawdzięcza przede wszystkim badaniom prowadzonym wparadygmacie formalistycznym. Najpełniejszy opis teorii składni wtym nurcie zawiera podręcznik autorstwa Stanisława Karolaka, Zuzanny Topolińskiej iMacieja Grochowskiego (1984). Proponowany przez wymienionych badaczy opis składni, oparty na założeniach logiczno-semantycznych, wykracza poza tradycyjne ujęcia, wktórych była ona traktowana jako reguły tworzenia wyrażeń pozostające wcałkowitej autonomii względem innych poziomów języka (Klemensiewicz 1937). Według skrystalizowanej wlatach osiemdziesiątych XX wieku koncepcji składni polskiej tworzenie jednostek złożonych przebiega na dwóch poziomach: pojęciowym iznakowym (Karolak 1984: 11). Jednostkami płaszczyzny treści są zdania, struktury powierzchniowej zaś–wyrażenia zdaniowe. Składnia formowania struktur semantycznych ma charakter uniwersalny ijest nadrzędna względem reguł formowania struktur formalnych, ata dominuje nad składnią linearnego uporządkowania (szyku). Wobrębie zdań, czyli jednostek samodzielnych komunikacyjnie, wyróżniane są zdania elementarne–składające się zelementów prymarnych (niepochodnych) semantycznie itworzonych za pomocą reguł formowania, oraz zdania pochodne–derywowane od elementarnych za pomocą reguł przekształcania (transformacyjnych).

Integralną częścią składni semantycznej jest struktura predykatowo-argumentowa. Zależności składniowe są wniej przedstawiane za pomocą aparatu pojęciowego logiki formalnej, który zastosował wopisie Stanisław Karolak. Przyjął on, że między zgodnymi pojęciami zachodzi implikacja, amiędzy niezgodnymi–wykluczanie (Grochowski 2017:204). Ustalanie liczby implikowanych przez predykat argumentów polega na rozłożeniu sensu reprezentowanego przez dane wyrażenie predykatywne na jednostki niepodzielne, czyli na semy. Należy mieć na uwadze, że wtej koncepcji funkcja predykatów nie jest przyznawana wyłącznie czasownikom, azdanie jest rozumiane dużo szerzej niż wtzw. gramatykach szkolnych. Przykładowo: reprezentantami predykatu wątp- są wyrażenia predykatywne wątp-, sceptyk-/sceptycz- (Karolak 1984: 60).

Wspomniani badacze, wskazując na semantyczne podstawy składni, mieli świadomość zależności ioddziaływań między gramatyką asłownikiem ipodkreślali konieczność badania klas gramatycznych leksemów razem zich klasami semantycznymi. Wpływ na rozwój stosowanego przez nich paradygmatu badawczego–wktórym punkt ciężkości stopniowo przesuwał się zklas gramatycznych na klasy semantyczno-leksykalne–miały teoria jednostek języka igramatyki operacyjnej Andrzeja Bogusławskiego oraz teoria naturalnego metajęzyka semantycznego Anny Wierzbickiej (Grochowski 2017: 206).

Większość teorii formalistycznych przyjmuje generatywny charakter składni, czyli zakłada istnienie zamkniętej liczby schematów zdaniowych, które stanowią podstawę tworzenia nieskończonej liczby wypowiedzeń (Grzegorczykowa 2011: 48). Ponieważ wwiększości tych ujęć zdanie jest traktowane węziej niż wkoncepcji Karolaka, afunkcję predykatywną pełnią wnich przede wszystkim czasowniki, schemat zdaniowy jest definiowany jako „abstrakcyjny układ pozycji składniowych wyznaczany przez właściwości konotacyjne (semantyczno-składniowe) czasownika” (Grzegorczykowa 2011:49). Konotacja jest tutaj rozumiana jako zbiór wymaganych podrzędników uzupełniających treść znaczeniową leksemu–wtym sensie bywa utożsamiana zwalencją. Zdaniem Grzegorczykowej warto te pojęcia rozróżniać: konotacja odnosi się bowiem do wymagań semantyczno-składniowych (morfologicznych), walencja zaś do otwierania miejsc dla pozycji semantycznych. Wymagania konotacyjne dotyczą przede wszystkim czasowników (wmniejszym stopniu przymiotników, wmarginalnym zaś–rzeczowników).

Analiza właściwości konotacyjnych polskich czasowników była przedmiotem licznych prac Kazimierza Polańskiego, zktórych na szczególną uwagę zasługuje pięciotomowy Słownik syntaktyczno-generatywny czasowników polskich (Polański 1980–1992), którego był głównym redaktorem. Celem autorów słownika było opracowanie charakterystyki łączliwości polskich czasowników za pomocą opisu generatywnego, to jest uwzględniającego „twórczy charakter języka” (Polański 1980: 5). Gramatyka generatywna wtym ujęciu obejmuje całość zjawisk językowych–od fonetyki przez morfologię iskładnię do słownictwa. Integralną część gramatyki, jak podkreślają autorzy we wstępie, stanowi także semantyka, na którą składają się dwie płaszczyzny: leksykalna isyntaktyczna. Pierwsza obejmuje znaczenie jednostek leksykalnych, druga, wychodząc od znaczeń leksykalnych, za pomocą odpowiednich reguł ma na celu określić znaczenia zdań (Polański 1980–1992: 5–6). Autorzy opracowania podkreślają ścisłe powiązanie aspektów gramatycznego isłownikowego wstrukturze zdania.

Poszczególne hasła słownika pomijają aspekt fonologiczny, fleksyjny isłowotwórczy wyrazów, do minimum ograniczają zaś informacje semantyczne. Znaczenie czasowników jest podawane tylko wtedy, kiedy różnice semantyczne determinują odrębność struktury składniowej. Schematy zdaniowe poszczególnych czasowników uwzględniają składniki obligatoryjne ifakultatywne–których obiektywne rozróżnianie pozostaje kwestią dyskusyjną. Cechy semantyczne oznaczane są symbolami umieszczanymi wnawiasach kwadratowych (np. [Hum+]). Słownik został opracowany zmyślą ouzupełnieniu nowoczesnego opisu gramatycznego języka polskiego. Zastosowanie nowej wówczas teorii składni wleksykograficznym opisie polskich czasowników stanowiło ważne osiągnięcie, poświadczające jej potencjał aplikacyjny.

Koncepcją, która wykazuje pokrewieństwo wstosunku do składni semantycznej wujęciu Karolaka, jest gramatyka konstrukcji–teoria reprezentacji składniowej rozwinięta wramach językoznawstwa kognitywnego. Podstawowym elementem wjęzyku są według niej konstrukcje–połączenia formy ze znaczeniem (funkcją)–„przyswajane wprocesie akwizycji języka iprzechowywane wpamięci użytkowników” (Szymańska 2013: 135), ipowiązane ze sobą siecią relacji. Forma konstrukcji obejmuje jej właściwości fonetyczne, morfologiczne lub składniowe, znaczenie zaś–cechy semantyczne, pragmatyczne lub dyskursowe (Croft 2007: 472; Szymańska 2013: 135). Konstrukcje to struktury oróżnym stopniu schematyczności, tworzące kontinuum, wktórym nie występują ostre granice między leksykonem askładnią. Gramatyka konstrukcji wobecnym jej kształcie stanowi model oparty na uzusie: konstrukcje są wyłaniane wwyniku generalizacji dokonywanych na podstawie jednostkowych użyć języka.

Gramatyka konstrukcji została zaproponowana wopozycji do kompozycjonalnego opisu języka typowego dla generatywnego modelu składni, wktóry wpisany jest redukcjonizm: każda jednostka języka składa się wtym ujęciu zelementów prostych oraz reguł kombinatorycznych, dzięki którym powstają złożone struktury (Croft 2007: 465). Wopisie tym nie mieściły się idiomy, czyli struktury wykazujące gramatyczną isemantyczną nieregularność. Analizy problemu idiomów podjęli się Charles J. Fillmore, Paul Kay iMary Catherine O’Connor (1988), twórcy teorii, która dała początek koncepcjom prezentującym różne warianty konstrukcyjnego myślenia ojęzyku. Obecność idiomów wjęzyku była dla badaczy dowodem na istnienie wjęzyku tzw. konstrukcji, czyli obiektów składniowej reprezentacji, zawierających jednocześnie informację semantyczną ifonologiczną (Croft 2007:466). Mimo charakteru polemicznego wstosunku do głównego nurtu generatywizmu wizja Fillmore’a przypomina formalistyczne opisy języka: właściwości gramatyczne są wniej reprezentowane przez atrybuty, którym przypisywana jest wartość–przy czym wartość ta może stanowić listę atrybutów mających określone wartości. Konstrukcje wtym modelu mają charakter złożonych kombinacji zbiorów niepodzielnych formalnie ifunkcjonalnie jednostek, akonstruowanie odbywa się wkierunku od elementów prostych do złożonych. Opis ma więc charakter redukcjonistyczny: niepodzielne jednostki są podstawą derywowania jednostek złożonych (Croft 2007: 479–481).

Początek kognitywnym ujęciom gramatyki konstrukcji dały prace Adele Goldberg dotyczące struktur argumentowych (1995). Wpływ na kształt nowej koncepcji miały analizy Lakoffa poświęcone konstrukcjom zelementem there (1987). Od swojego nauczyciela badaczka przejęła pojęcia prototypowości oraz kategorii radialnych iwykorzystała je do zilustrowania relacji, które zachodzą między konstrukcjami (Croft 2007: 485). Wanalizie struktury argumentowej Goldberg wskazywała, że role uczestników wzdarzeniu są derywowane ze zdarzenia pojmowanego jako całość. Jest to przykład reprezentacji nieredukcjonistycznej: podstawową jednostką jest bowiem złożone zdarzenie, które wyznacza role uczestnikom, nie odwrotnie. Redukcjonistyczny charakter mają natomiast wanalizie Goldberg role irelacje składniowe: badaczka posługuje się zbiorem podstawowych niepodzielnych relacji, takich jak subiekt iobiekt, oraz kategorii, takich jak czasownik (Croft 2007: 486).

Adele Goldberg skupia się na semantyce struktury argumentowej ipowiązaniach ról składniowych oraz relacjach między konstrukcjami. Repertuar tych ostatnich, do których dotychczas zaliczano relacje typu taksonomicznego imeronimicznego, poszerza ozwiązek polisemii. Polega on na tym, że jeden zsensów ma charakter prototypowy, apozostałe są jego rozszerzeniami (niekiedy metaforycznymi), przejmującymi od niego składniowy schemat konstrukcji. Konstrukcje danego typu (np. zdarzenia zdwoma obiektami) oróżnym znaczeniu tworzą radialną kategorię, wktórej centrum znajduje się konstrukcja oznaczeniu prototypowym. Badaczka wyróżnia również nadrzędny schemat, obejmujący zarówno sens prototypowy, jak ijego metaforyczne rozszerzenia (Croft 2007: 486–488).

Opis składni sformułowany przez Langackera bywa rozpatrywany jako jedna zwersji gramatyki konstrukcji (Croft 2007: 389), stanowi jednak propozycję odrębną i–według jej autora–niezależną od innych teorii. Podobnie jak koncepcja Karolaka, gramatyka kognitywna akcentuje związek gramatyki isemantyki, który wynika jednak zinnych założeń. Struktura wypowiedzenia nie realizuje wniej bowiem nadrzędnej struktury predykatowo-argumentowej, lecz pełni funkcję konwencjonalnego obrazowania treści pojęciowej. Centrum zdania stanowi czasownik, rozumiany jako wyrażenie profilujące proces, adokładniej rzecz ujmując–pewien typ procesu. Zdanie proste zaś, dzięki zakotwiczeniu, stanowi okaz procesu określonego typu. Istotnymi wymiarami organizacji zdania prostego są: (1) role semantyczne igramatyczne nominalnych uczestników wstosunku do profilowanego procesu; (2) podstawowe typy zdań oraz (3) sposób funkcjonowania zdań wdyskursie (Langacker 2009:471). Przyjmuje się, że struktura zdania jest zakorzeniona wpodstawowym ludzkim doświadczeniu. Opisuje się ją wodniesieniu do pewnych archetypów pojęciowych, takich jak: organizacja sceny, na którą składają się sceneria iuczestnicy; model kuli bilardowej obrazujący interakcje między uczestnikami; łańcuch akcji, odpowiadający sytuacji, wktórej interakcje między uczestnikami charakteryzują się przepływem energii; model sceny, wktórym istotne jest ogniskowanie uwagi na jakimś wycinku rzeczywistości, oraz standardowy układ oglądu. Do archetypów należą również role uczestników danego zdarzenia: agens, patiens, instrument, doznający, poruszający się irola zerowa. Między archetypami istnieje wiele powiązań, mogą się one również ze sobą łączyć (Langacker 2009:471–473). Język dostarcza standardowych iniestandardowych sposobów kodowania określonych typów relacji między uczestnikami. Przykładowo wjęzyku polskim iangielskim standardowym sposobem kodowania interakcji między agensem ipatiensem jest zdanie przechodnie zdwoma uczestnikami (Langacker 2009: 475). Mimo że sposoby kodowania wposzczególnych językach się różnią, wykorzystują one uniwersalne zjawiska poznawcze zgodnie zogólnymi wzorcami.

Charakterystyki proponowane przez Langackera dla tradycyjnych pojęć podmiotu idopełnienia również odwołują się do procesów poznawczych–akonkretnie do zdolności do koncentrowania uwagi: podmiot to grupa nominalna kodująca trajektor, dopełnienie zaś to grupa kodująca landmark profilowanej relacji. Podmiot idopełnienie są zatem gramatycznymi przejawami uczestników, charakteryzujących się odpowiednio prymarnym isekundarnym centralnym wyróżnieniem.

Schematy zdaniowe są wtym ujęciu określane na podstawie liczby uczestników relacji, ich roli semantycznej oraz wzajemnego układu. Istnieją zatem zdania zjednym uczestnikiem (agensem, doznającym, poruszającym się lub rolą zerową), atakże zdwoma lub więcej uczestnikami wróżnych konfiguracjach (np. agensem, patiensem iinstrumentem). Wdanym języku przyjęty jest jakiś prototypowy sposób ujmowania danego typu zdarzenia za pomocą tzw. kanonicznego układu. Kwestią decydującą otypie zdania prostego jest również „orientacja”, czyli kierowanie uwagi na jednego zuczestników. Według Langackera można wyróżnić dwie główne strategie dotyczące składnika, na który jest kierowana uwaga: orientację na agensa lub na temat (czyli rolę różną od agensa). Obie wykorzystywane są wkażdym języku, wróżnych językach są jednak wodmienny sposób realizowane iodnoszą się do innej liczby zjawisk.

Wspólne dla przedstawionych koncepcji jest traktowanie składni jako zjawiska uwarukowanego semantycznie oraz opisywanie czasowników jako wyrazów charakteryzujących się rozbudowanymi wymaganiami semantyczno-syntaktycznymi. Wniniejszej rozprawie odwołujemy się do roli gramatyki jako konwencjonalnego obrazowania, dlatego wanalizie materiału empirycznego posługujemy się przede wszystkim pojęciami profilowania, trajektora oraz landmarka. Wartościowy wkład wbadanie semantyki polskich czasowników wniosłoby zpewnością zastosowanie kognitywnej gramatyki konstrukcji. Interesujące rezultaty mogłaby przynieść szczególnie próba wykorzystania kategorii radialnych wopisie zależności między typami czasownikowych struktur składniowych. Zagadnienie to zasługuje jednak na dogłębne przeanalizowanie ipoświęcenie mu osobnego studium.

4Czyli tezy, zgodnie zktórą ogólna kompetencja językowa (niezwiązana ze znajomością żadnego konkretnego języka) poprzedza wszelkie doświadczenie, jest dana wumyśle dziecka.

5Przymiotnik multimodalny jest kalką angielskiego wyrazu multimodal. Odnosi się do przekazów, wktórych informacja jest komunikowana za pomocą więcej niż jednego systemu semiotycznego czy też kodu (ang. mode), inaczej mówiąc, przepływa jednocześnie więcej niż jednym kanałem, np. dźwiękowym iwizualnym, werbalnym ipozawerbalnym. Tak zwane komunikaty mieszane wykorzystuje się m.in. wreklamach, informacjach prasowych, dowcipach obrazkowych (Maćkiewicz 2017).

6Tożsamość różnych terminów może się brać stąd, że językoznawcy nierzadko przejmują terminologię zinnych nauk, np. socjologii, psychologii, badań nad sztuczną inteligencją, zatem do jednego fenomenu językowego mogą zostać przypisane dwa różne terminy pochodzące zodrębnych dziedzin.

7Oobrazowaniu jako operacji opisywanej przede wszystkim wramach gramatyki kognitywnej będzie mowa wpodrozdziale 4.1.

8Koncepcja ram znalazła zastosowanie wdostępnej wInternecie sieci FrameNet, zob.: https://framenet.icsi.berkeley.edu/fndrupal/framenet_search.

9Schematu wyobrażeniowego nie należy mylić ze schematem ujmowanym przez Langackera jako „struktura semantyczna, fonologiczna lub symboliczna, która wstosunku do innej reprezentacji tego samego elementu –charakteryzuje się mniejszą konkretnością iszczegółowością” (Langacker 1995: 168). Rola schematu wgramatyce kognitywnej zostanie szerzej omówiona wpunkcie 1.4.

10Sam Langacker nie przyznaje metaforze imetonimii tak doniosłej roli wjęzyku jak Lakoff iJohnson –wjego rozważaniach te dwa zjawiska są uznawane za rodzaje powszechnej relacji semantycznej, łączącej schemat ijego konkretyzacje, ale nie za główny mechanizm decydujący oznaczeniu. Elżbieta Tabakowska stwierdza zaś: „[…] proces tworzenia metafory jest wswej istocie identyczny zprocesem profilowania, tak jak się go definiuje wmodelu Langackera” (Tabakowska 1998: 182).

11„Wiedza naukowa odługości fal dla każdego koloru jest niezbędna wpodręczniku fizyki, lecz gdy przytacza się ją wksiążkach iartykułach językoznawczych ijako odpowiedź na pytanie oznaczenie, to jedynie zaciemnia ona istotę rzeczy iwten sposób przeszkadza tylko wbadaniach nad rzeczywistym rozumieniem tego, co ludzie myślą, gdy posługują się terminami kolorystycznymi. […] Moim zdaniem pytanie omechanizmy percepcjibarw ma bardzo mało wspólnego zpytaniem okonceptualizacjębarw” (Wierzbicka 1999b: 409–411).

2. Czym są emocje12

Starożytni filozofowie, analizując rolę emocji wżyciu człowieka, stawiali je wopozycji do rozumu (Solomon 2005: 19). Stoicy traktowali emocje jako ślepe porywy, które odciągają od tego, co rozumne, zakłócają rozwój człowieka iutrudniają osiągnięcie szczęścia. Arystoteles dzielił duszę ludzką na trzy części: rozumną, zmysłową iwegetatywną. Nie wspominał owalce między nimi, ale wskazywał na prymat intelektu wosiąganiu harmonijnego rozwoju duszy. Emocje mają według filozofa podstawę poznawczą, jak również wpływają na przyszłe sądy człowieka (Oatley, Jenkins 2003: 16). Wbrew temu, co mu się czasami przypisuje, Stagiryta nie zakładał, że uczucia są niewłaściwe inależy je tłumić. To przez przeżycie silnych emocji–litości itrwogi–wczłowieku dokonywać się miało katharsis, czyli oczyszczenie zprzeszkód utrudniających jasne rozumowanie (Oatley, Jenkins 2003:17–18). Tomasz zAkwinu również afirmował ludzką naturę jako nierozerwalną całość, której koniecznym składnikiem są emocje, uznawał jednak je za element ślepy ibierny, wspólny ludziom i