Rozdział 3 / Między obrazem a tekstem (i jeszcze trochę dalej)

Kreślenie linii

Zarówno pisanie, jak i rysowanie polegają na kreśleniu linii na podłożu. Dla istoty tych czynności nie ma znaczenia, czy ślad jest zostawiony na drogocennym pergaminie czy na piaszczystej ziemi; czy prowadzimy pędzel zanurzony w tuszu, czy wydrapujemy coś na woskowej tabliczce. Sztywne rozróżnienie między pisaniem a rysowaniem nie istniało od zawsze. W niektórych językach (np. chińskim) nie jest ono tak sztywne jak w języku polskim, gdzie pisanie oznacza kreślenie znaków, rysowanie – przedstawianie czegoś za pomocą linii, malowanie – przedstawianie czegoś za pomocą plamy.

Grecki czasownik graphein, z którego wywodzą się między innymi słowa takie jak grafika, typografia, diagram, gramatyka, pochodzi od indoeuropejskiego rdzenia oznaczającego wydrapywanie. Graphein odnosi się zarówno do rysowania, pisania, jak i wszystkich innych sposobów zaznaczania śladu (np. przez zwierzę zostawiające ślady na piasku)97. Tym, co powstaje podczas tej czynności, jest gramma – „to, co jest zaznaczone, zanotowane”: znak, litera, rysunek, ślad. Wspólne pochodzenie pisania i rysowania szczególnie wyraźnie widać w kręgach kulturowych, które zachowały żywą tradycję kaligraficzną, choć w odniesieniu do pisma arabskiego czy chińskiego kaligrafia nie jest zasadniczo najwłaściwszym pojęciem. Pojęcie kaligrafii (czyli pięknego pisania) zakłada, że pisanie jest przede wszystkim kwestią użyteczności (a więc tego, czy pismo przekazuje założony przez autora komunikat), natomiast jego wartość estetyczna, piękno, stanowi zaledwie wartość dodaną. Oznacza to, że nie każde pismo jest automatycznie kaligraficzne. Piszący musi się o to dopiero postarać, ucząc się odpowiednich technik, a następnie kreśląc litery z należytą starannością. W piśmie arabskim czy chińskim kwestia estetyki czy nawet sakralności jest tak mocno wpisana w samą ideę pisma, że trudno mówić o kaligrafii jako osobnym zjawisku98. Tego określenia o europejskim rodowodzie należy zatem używać ostrożnie, biorąc pod uwagę, że rozmaite systemy zapisu różnią się między sobą także znaczeniem kulturowym.

To samo słowo w alfabecie arabskim zapisano na trzy sposoby. Pierwszy jest tradycyjny, a dwa kolejne uproszczone i oparte na siatce.

Mocno wpisana w tradycję pisma arabskiego odręczność stanowi trudność w opracowywaniu dla tego języka fontów, czyli cyfrowej postaci kroju pisma. Litery arabskie muszą łączyć się tak, by wyglądały jak napisane za pomocą jednej linii, a forma litery zależy od jej umiejscowienia – inaczej wygląda na początku, w środku, na końcu wyrazu lub w izolacji. Użytkownik alfabetu łacińskiego może wybierać między dziesiątkami tysięcy rozmaitych fontów, podczas kiedy dla alfabetu arabskiego ilość ta jest znacznie mniejsza. Do niedawna dużym problemem dla projektantów było znalezienie arabskich krojów o nowoczesnym wyglądzie, które mogłyby służyć komunikacji wizualnej na potrzeby biznesu czy nowych technologii. Większość dostępnych krojów była tradycyjna: bardzo ozdobna i pełna nawiązań do historii pisma. Od niedawna rośnie liczba projektantów specjalizujących się w typografii innej niż łacińska, a największe firmy dystrybuujące kroje pism, takie jak Monotype, poszerzają o nie swoją ofertę. Firma ta we współpracy z Google opracowała rodzinę pism o nazwie Noto, która jest kompatybilna z około 800 językami i 100 pismami99. Opracowanie jej zajęło wiele lat i wymagało współudziału setek naukowców, typografów oraz użytkowników różnych języków.

Z perspektywy współczesnego Europejczyka pisanie i rysowanie nie mają wielu wspólnych cech. Do pisania służą nam inne niż przed wiekami narzędzia – coraz częściej pierwszymi są klawiatura z klawiszami bądź ekran dotykowy, na których nie kreśli się linii. Pisanie wymaga dotknięcia znaku, który chcemy napisać, natomiast rysowanie, nawet jeśli rysuje się przy pomocy elektronicznych narzędzi (specjalnym rysikiem lub po prostu palcem), ciągle polega na tworzeniu linii o określonym przebiegu. Gdy te dwie czynności wydają się nam różne lub nawet przeciwstawne, powstaje sztywny podział na tekst i obraz, który daje początek innym:

tekstobraz
literatura i naukasztuka
czytanieoglądanie
wiedzaemocje

Tekst vs. obraz

Ścisły podział na obraz i tekst jest sztuczny, ale trudno nam myśleć inaczej, bo jesteśmy do niego bardzo przywiązani. Przyczynia się do tego także system edukacji – dzieci są przyzwyczajane, że na lekcjach języka ojczystego używa się pisma, na lekcjach plastyki – rysunku. Niewskazane jest łączenie tych sposobów komunikacji. Jeśli nawet pozwala się dzieciom rysować na lekcjach polskiego, traktuje się to jako etap przejściowy. Można rysować, dopóki nie dorośnie się do pisania. Niestety, na tę podróż od rysunku do pisma mamy zazwyczaj bilet w jedną stronę. Komunikacyjne możliwości obrazu i tekstu są postrzegane w sposób hierarchiczny, ale hierarchia ta zmienia się w zależności od kontekstu. W kontekście uniwersyteckim tekst znajduje się dużo wyżej niż obraz. Prezentacje czy postery, których format dopuszcza hybrydyczność wizualno-tekstową (poprzez włączenie zdjęć, diagramów, wykresów, różnych środków typograficznych), są podrzędne wobec „czystego” tekstu. Wyjątkiem są tutaj oczywiście uczelnie artystyczne, gdzie nisko ceni się wypowiedzi pisemne, czego odzwierciedleniem jest bardzo mały nacisk na takie formy wypowiedzi studentów, a często także ich niska jakość. To również przykład istnienia tej hierarchii – tyle że odwróconej, z obrazem u góry.

Na schemacie przedstawiono trzy sposoby widzenia relacji obraz–tekst: taki, w którym obraz jest tak samo ważny jak tekst, taki, w którym obraz dominuje nad tekstem i taki, w którym tekst dominuje nad obrazem.

Gdy przyjrzymy się temu, w jaki sposób doświadczamy świata, zdamy sobie sprawę, że te binarne podziały nadmiernie upraszczają. Taki sposób myślenia – bazujący na ustalaniu przeciwieństw, niechętny wszelkim hybrydom i z ducha modernistyczny – niezbyt dobrze pasuje do współczesności. Wskazywanie przeciwieństw jest zasadne wtedy, kiedy wyobrażamy sobie je jako pojęcia abstrakcyjne, krańce osi tekst obraz. Natomiast przekazy, z którymi mamy do czynienia, znajdują się zazwyczaj gdzieś pomiędzy, choć oczywiście nie zawsze pośrodku. Tak będzie ze stroną książki (ta kwestia jeszcze powróci) albo stroną internetową. Kiedy tekst zostaje zapisany, staje się obrazem i od razu wyłamuje się z dualizmu.

Ciekawym, bo trudnym do ujęcia w ramach prostej dychotomii tekst/obraz, przykładem jest spopularyzowane przez dwudziestowieczną awangardę pismo asemiczne (bezznaczeniowe) – nieoparte na znanym powszechnie alfabecie.

Przykład pisma asemicznego. Zapisany na ilustracji wers składa się z ciągu kilkudziesięciu znaków o bardzo ekspresyjnych kształtach.

Jego genezy można szukać wiele stuleci wcześniej, ale słynne „teksty” asemiczne pisali między innymi Henry Michaux, Max Ernst, twórca letryzmu Isidore Isou i inni literaci oraz artyści wizualni związani z awangardą. Czy jeśli pismo jest asemiczne, można je w ogóle nazwać pismem? Czy „zapis” nie jest właściwie stylizowanym na pismo rysunkiem, w którym wszystkie podjęte przez autora decyzje mają charakter estetyczny, a nie semantyczny? Zapisy, których nie potrafimy odczytać, postrzegamy i oceniamy na poziomie estetyki – osoba nieznająca pisma chińskiego będzie postrzegała chiński tekst jako pismo asemiczne – wspaniały, elegancki ornament. Potwierdzeniem tego jest wielka, do niedawna, popularność tatuaży z „orientalnymi” znakami, które, jak się czasami okazywało, oznaczały „smażony ryż”, „makaron” albo „poważny błąd”. Dokładnie na granicy pisma asemicznego z „semicznym” można umieścić Mikrogramy Roberta Walsera, dla większości ludzi nieczytelne ze względu na wysokość liter (ok. 1 milimetra). Z oddalenia wyglądają nie jak znaki, ale rysunkowy szrafunek. Mocno zbite wiersze stają się „obiektami” na stronie.

Graficzne przedstawienie trzech typów relacji tekstu i obrazu (A, B i C), opisanych w tekście książki.

Środowiska cyfrowe, zwłaszcza od czasu pojawienia się graficznych interfejsów, nie stosują podziału na obraz i tekst. Nawet malarstwo figuratywne, które wydaje się kwintesencją „czystej” wizualności, może zawierać elementy tekstowe: podpis autora, szczegółową genealogię portretowanej na obrazie osoby, ale także napisy wpływające na wymowę dzieła. Te elementy tekstowe mogą znajdować się bezpośrednio na obrazie. Taką relację między obrazem a tekstem można określić jako typ A.

Przykład sytuacji, w której tekst znajduje się bezpośrednio na obrazie. Ilustracja nawiązuje do słynnego obrazu René Magritte’a La Trahison des Images (Zdradliwość obrazów), przedstawiającego kontur fajki. Poniżej znajduje się napis w języku francuskim „Ceci n’est pas une pipe” (To nie jest fajka).

Przykład sytuacji, w której tekst wydzielono od obrazu, ale jest z nim powiązany. Prostokąt symbolizujący obraz umieszczono między napisem „motto” (u góry), a powtórzonym czterokrotnie wersem „krótki utwór poetycki” (u dołu).

Obecność tekstu na obrazie nie jest regułą, istnieją jednak formy artystyczne, które w definicję mają wpisaną wizualno-literacką hybrydyczność. Renesansowe i barokowe emblematy miały stały, trójdzielny schemat budowy, w którym tekst i obraz były od siebie kompozycyjnie oddzielone (tekst znajduje się obok obrazu, a nie na nim) i umieszczone obok siebie, w osobnych „strefach”. By zrozumieć przekaz całości potrzebujemy obu składowych, tekstu i obrazu – emblemat przestaje być emblematem, gdy rycinę pozbawi się podpisu. Na podobnej zasadzie funkcjonują obrazy w powieści Strasznie głośno, niesamowicie blisko Jonathana Safrana Foera, w Tajemniczym płomieniu królowej Loany Umberto Eco czy Pierścieniach Saturna lub Austerlitz W. G. Sebalda – kompozycyjnie są odrębne od tekstu, lecz związane z nim znaczeniowo. Ostatni z autorów z włączania fotografii w tok narracji uczynił jeden ze swoich znaków rozpoznawczych. Część zdjęć Sebald wykonał samodzielnie, jednak większość wybrał z dorobku innych fotografów. Gdy porównuje się wydania jego powieści z różnych krajów, można łatwo zauważyć, że zdjęcia nie wyglądają w nich tak samo – właściwie każdy wydawca, czy raczej pracujący dla niego składacz tekstu, inaczej rozmieszcza je na stronach i manipuluje ich wielkością. Wizualna część dzieł Sebalda nie doczekała się zbyt wielu dogłębnych analiz (w przeciwieństwie do warstwy tekstowej), co dowodzi, że uważanie fotografii za integralną część jego powieści ciągle nie jest powszechne100.

Relacja B, kompozycyjne oddzielenie, najczęściej występuje w książkach ilustrowanych, zarówno w beletrystyce, jak i opracowaniach naukowych – podobnie jak w emblematach, obraz znajduje się tu obok tekstu. W kontekście książek można sięgnąć po przykład z literatury dziecięcej: występują tu książki ilustrowane typu B oraz książki obrazkowe (w Polsce często używa się angielskiego terminu picture book), które reprezentują relację A lub C, czyli całkowitą homogeniczność.

Ten ostatni rodzaj relacji najłatwiej zaobserwować w dziedzinie poezji wizualnej, od lat 50. xx wieku nazywanej także konkretną. Jej korzenie sięgają czasów starożytnych i od tamtego czasu jest uprawiana do dnia dzisiejszego. Do najsłynniejszych przykładów poezji wizualnej należą kaligramy Apollinaire’a, choć warte uwagi są także utwory autorów doby baroku, George’a Herberta czy Luisa de Góngory, oraz dzieła dużo późniejsze: Rzut kośćmi Mallarmégo, „mysi ogonek” z Alicji w krainie czarów Carolla oraz wiele innych. W drugiej połowie ubiegłego wieku środowisko twórców tekstów wizualnych działało prężnie we Wrocławiu, wśród artystów z tego kręgu najwybitniejszą postacią był Stanisław Dróżdż101. W utworach reprezentujących poezję wizualną słowa bądź litery budują obraz, działają jak linia, choć zazwyczaj zachowują swoje znaczenie (istnieją także utwory, które wykorzystują litery jedynie w ich wymiarze graficznym lub fonetycznym). Nie da się w ich przypadku wyraźnie oddzielić od siebie tekstu i obrazu, powiedzieć, gdzie kończy się jedno, a zaczyna drugie, obraz jest bowiem wykonany z tekstu.

Przykład homogeniczności tekstu i obrazu. Grafika jest reprodukcją poematu The Altar George’a Herberta, w którym poszczególne wersy skomponowano tak, by całość poematu ułożyła się w wielką literę „i” zapisaną szeryfowym krojem pisma.

Zaproponowana wyżej typologia jest bardzo uproszczona, ponieważ istnieje wiele typów pośrednich – tekst na obrazie olejnym umieszczony w namalowanym kartuszu (ozdobnej tarczy) będzie czymś pomiędzy wariantem AB. Typologia ta nie ma charakteru hierarchicznego – nie jest powiedziane, że w typie A obraz pełni mniej ważną rolę w niż w odmianie B czy C. Wszystkie trzy relacje odsyłają do pojęcia ikonotekstu, czyli komunikatu, w którym rozdzielenie dwóch składowych, obrazu i tekstu zawsze jest zamachem na spójność dzieła102. Trudno wyobrazić sobie by wydawca komiksu odważył się usunąć tekst znajdujący się w dymkach. Z drugiej strony istnieją liczne wydania poezji Blake’a w postaci transkrypcji – tekst poetycki jest w nich sztucznie „wydestylowany” z malarsko-typograficznej kompozycji, w której były pierwotnie umieszczone.

Notacja

Przykłady znaków wymykających się jednoznacznej klasyfikacji na obraz lub tekst: symbole używane w zapisie nutowym, znaki matematyczne i symbole używane na mapach turystycznych.

Gdzie na osi tekst obraz należy umieścić zapis nutowy, wzór matematyczny czy mapę? Na pierwszy rzut oka widzimy, że nie pasują one całkowicie ani do pisma, ani obrazu. Nie można ich także umieścić na środku osi. W zapisie nutowym elementy wizualne są ściśle skodyfikowane: dzięki ustalonemu kodowi zapisana muzyka może być potem odczytana przez innego człowieka, o ile tylko zna on ten system. Zapis nutowy jest zatem zbiorem znaków graficznych, które można czytać. Wielu kompozytorów uważa ten kod za niewystarczający i wzbogaca go według własnej inwencji. Partytury graficzne tworzyli najsłynniejsi spośród współczesnych kompozytorów, między innymi John Cage, Karlheinz Stockhausen czy Krzysztof Penderecki. Te autorskie sposoby zapisu dźwięku są właściwie abstrakcyjnymi rysunkami, nierzadko bardzo atrakcyjnymi wizualnie, dlatego chętnie wystawia się je w galeriach i muzeach jako samodzielne dzieła sztuki.

Przykład kinetografii. Na pionowy diagram (oś czasu) naniesiono znaki w kształcie figur geometrycznych o różnym wypełnieniu.

Gdy patrzymy na nuty wyłącznie pod kątem ich wizualności, możemy dostrzec ciekawą kompozycję graficzną, ale nie uda nam się dojść do sedna komunikatu – muzyki. Do komunikatów pokrewnych zapisom muzyki można zaliczyć także zapisy ruchu, na przykład choreografii. Jest co najmniej kilka służących do tego metod, między innymi kinetografia opracowana przez Rudolfa Labana czy metoda Joan i Rudolfa Beneshów. W obu ruch poszczególnych części ciała jest przedstawiany za pomocą abstrakcyjnych symboli nanoszonych na oś czasu.

Trójkąt pojęciowy symbolizujący relacje między obrazem, tekstem i notacją.

Ze względu na te, dość liczne, zjawiska nie dające się tak łatwo sklasyfikować na odcinku między tekstem i obrazem, należałoby zamienić oś na trójkąt, którego wierzchołkami będą tekst, obraz oraz notacja. Jak zdefiniować ostatnie z tych pojęć? James Elkins zauważa, że gdy widzimy coś, co zawiera różnego rodzaju osie, siatkę porządkującą komunikat, elementy geometryczne, punkty, linie, figury – najprawdopodobniej będzie to właśnie notacja103. To bardzo mało ścisła definicja, ale wydaje się wystarczająca, by odróżnić ten wierzchołek trójkąta od dwóch pozostałych, choć należy podkreślić, że „czysta” notacja, „nieskażona” ani obrazem, ani tekstem będzie raczej niemożliwa do wskazania.

Język wizualny?

Zestawianie obrazu i tekstu ma długą tradycję – jej początek może wyznaczać motywu ut pictura poesis, który pojawia się już w Poetyce Arystotelesa i Sztuce poetyckiej Horacego. Poezję i malarstwo nazywano „dwiema siostrami”, które różnią się środkami wyrazu, ale mają tę samą naturę (przedstawiają i mają znaczenie) i zasługują na taką samą uwagę. Jednak to poezja należała do sztuk wyzwolonych, a malarstwo do mniej prestiżowej kategorii sztuk mechanicznych, bliżej rzemiosła. Mimo tego, relacje między nimi były dwustronne: by podkreślić mistrzostwo autora, porównywano malarstwo do poezji, ale także tworzono opisy dzieł sztuki, co było uważane za wyrafinowane ćwiczenie warsztatu poetyckiego104. Hierarchię deprecjonującą malarstwo wobec poezji krytykował w swoich paragone Leonardo. Powoływał się na argument wyższości wzroku, zmysłu dostarczającego człowiekowi najwięcej informacji wobec przynależnego poezji słuchu. Sednem trwającego przez wieki sporu było to, która z form ekspresji, słowo czy obraz, lepiej pokazuje prawdę i daje dostęp do domniemanej natury rzeczy.

Do dziś porównuje się obrazy do tekstów, choć już nie w zażartych debatach pisarzy i artystów wizualnych a przez powszechnie stosowane metafory. Nie brakuje książek, które mają nauczyć nas, jak „czytać” malarstwo czy fotografię. „Człowiek piśmienny (…) ma skłonność, by universum komunikacji i myśli oralnej pojmować nie inaczej niż jako wariant uniwersum piśmienności”105. Ten sposób myślenia rozciąga się także na pojmowanie obrazu, czego dowodem mogą być metafory stosowane powszechnie w tekstach dotyczących kultury wizualnej: metafora języka wizualnego oraz kilka innych będących właściwie jej następstwem: alfabetyzm wizualny (visual literacy), gramatyka obrazu, czytanie obrazu i tak dalej. Wśród propagatorów tych metafor znajdziemy zarówno naukowców, jak i projektantów czy artystów. Podstawowym argumentem za sensownością powyższych przenośni jest przekonanie o tym, że w komunikatach wizualnych można znaleźć elementy i struktury analogiczne do tych, które występują w językach naturalnych: gramatykę (reguły budowania komunikatu) i słownictwo (zbiór jednostek znaczeniowych).

Schemat w formie tabeli przedstawiający znaki drogowe jako rodzaj języka wizualnego. Dwa przykładowe kształty tarcz (koło i kwadrat) umieszczono w rzędach, a dwa przykładowe piktogramy (strzałka i sylwetka idącego człowieka) w kolumnach. Na przecięciu poszczególnych kolumn i rzędów znajdują się znaki drogowe, utworzone z poszczególnych elementów zgodnie z „gramatyką” języka wizualnego.

Ilustracja zjawiska graficznych „synonimów”. Wnętrza kwadratów podpisanych nazwami kolorów („złoto”, „zielony”, „purpura”, „czerwony”) wypełniono różnymi liniami, symbolizującymi poszczególne kolory.

Kontynuacja poprzedniej ilustracji.

Zgodnie z takim podejściem, prostym językiem wizualnym mógłby być system znaków drogowych, w którym jednostkami znaczeniowymi są piktogramy, kolor, kształty i rozmiary tarcz. Odpowiednikiem gramatyki byłyby zasady mówiące, że przekreślenie ma kolor czerwony i biegnie z lewego dolnego do prawego górnego rogu tarczy czy że na tarczach w kolorze żółtym piktogramy są zawsze czarne. Znamion języka wizualnego można dopatrzyć się również w heraldyce, w której „słownictwo” i „gramatyka” są bardzo mocno skonwencjonalizowane – zasady określają, jakie kolory można ze sobą łączyć, jak je komponować na tarczy i tak dalej106. Ciekawym zabiegiem jest występujące w heraldyce zjawisko graficznych „synonimów” – metale (złoto, srebro i stal), kolory oraz rodzaje futer można oddawać za pomocą szrafunku, którego rodzaj również określa tradycja.

Próby opracowania sztucznych języków wizualnych sensu stricto były podejmowane, choć żadna z nich nie przyniosła oczekiwanego przez twórców spektakularnego efektu. Przykładami są systemy Blissymbols i Elephant’s Memory. Chemik Charles Bliss pragnął opracować system komunikacji wizualnej, który byłby uniwersalny i międzynarodowy, jak oznaczenia stosowane w nauce. Stworzona przez niego w połowie xx w. semantografia (nazywana także systemem Blissymbols) została pomyślana jako metoda komunikacji przydatna dla osób z trudnościami z posługiwaniem się językiem naturalnym (np. z powodu porażenia mózgowego)107.

Przykład działania języka wizualnego Charlesa Blissa. U góry ilustracji słowa „tworzenie” i „uczucie” symbolizowane przez trójkąt i serce dają razem słowo „sztuka”. U dołu słowa „budynek” (ramka w kształcie domku) oraz „pieniądze” (przekreślona ósemka) razem tworzą „bank”

Właściwością tego systemu ideograficznego jest to, że można w nim wyłącznie pisać i czytać. System Elephant’s Memory powstał w latach 90. XX wieku, a jego twórcą jest artysta wizualny Timothée Ingen-Housz. Został zaprojektowany w ramach eksperymentu nazwanego przez autora „językową kuchnią”, przestrzenią do badania mechanizmów komunikacji i sposobów rozumienia świata za pomocą języka i obrazu. Nazwa systemu jest nawiązaniem do francuskiego, choć występującego także w języku polskim, powiedzenia „mieć słoniową pamięć”. Składa się on z około 150 logogramów, które można łączyć ze sobą w zdania. Gramatyka opiera się na dwóch parametrach: umiejscowieniu znaku oraz jego wielkości. Zdania mają strukturę niemalże hipertekstową – nie czyta się ich do lewej do prawej, znaczenia „kumulują się” w jeden komunikat wraz z zapoznawaniem się z kolejnymi znakami108.

Możliwości komunikacyjne takich systemów wizualnych w porównaniu do języków naturalnych są bardzo ograniczone, co czyni „język wizualny” raczej pojemną metaforą niż definicją o ścisłych ramach. Jej najważniejszym punktem jest podkreślanie systemowego, a więc uporządkowanego i logicznego charakteru obrazów oraz ich związków z wiedzą, a nie tylko intuicją czy emocjami. W xx wieku próby precyzyjnego określenia składowych systemu form wizualnych i jego sposobu funkcjonowania podejmowali artyści, między innymi ci działający w kręgu Bauhausu: Paul Klee, Johannes Itten, Josef Albers czy Wasyl Kandinsky. Każdy z nich próbował wydzielić z obrazu podstawowe elementy podlegające analizie. Itten i Albers zajmowali się głównie kolorem – zestawiali ze sobą rozmaite barwy i analizowali, niczym chemicy w laboratorium, jak przebiegają reakcje między nimi, jak tworzą się harmonie i napięcia109. Klee i Kandinskiego interesował zarówno kolor, jak i środki rysunkowe – punkt oraz linia. Niewielka objętościowo książka Kandinskiego Punkt a linia i płaszczyzna jest poświęcona zagadnieniom tak podstawowym jak powstawanie linii poprzez poruszenie punktu czy wpływ poszczególnych form abstrakcyjnych na kształtowanie dynamiki całego obrazu.

Praca ta, zawierająca zresztą wielką ilość niezwykle komunikatywnych diagramów, do dzisiaj jest podstawową lekturą studentów sztuki i projektowania. Udowadnia, że komponowanie obrazu, niezależnie od tego czy jest to obraz malarski na płótnie, czy strona książki lub plakat, rządzi się pewnymi, dość stałymi prawami, których można się zwyczajnie nauczyć. Nauka ta przebiega najskuteczniej, gdy dysponuje się odpowiednim materiałem poglądowym. Problem kompozycji dynamicznej opartej na liniach ukośnych można wyjaśniać przy pomocy obrazu Rubensa, ale ma to tę wadę, że kompozycję tę trzeba z owego obrazu wydedukować – zignorować całą historię, którą obraz opowiada, zignorować kolor i wiele innych aspektów, po to by „wydestylować z niego” cechy owej kompozycji, coś na kształt strukturalnego szkieletu całego obrazu. Diagramy Kandinskiego są skuteczniejsze, bo pokazują wyłącznie dynamiczną kompozycję – nie ma w nich niczego, co mogłoby odwracać uwagę od tego zagadnienia. Tym, czego poszukiwali zarówno Itten, jak i Albers, Klee czy Kandinsky, był uniwersalny i ponadhistoryczny system form, których znaczenie jest niezmienne.

Rozbudowana tabela ilustrująca system zmiennych wizualnych Jacquesa Bertina, opisany w tekście.

Zagadnienie języka wizualnego obecne jest także w dyskursie naukowym – i to nie tylko w dziedzinie teorii sztuki. Systemowy charakter komunikacji wizualnej badał teoretyk kartografii Jacques Bertin, któremu zawdzięczamy przydatne pojęcie zmiennych wizualnych – należą do nich właściwości takie jak rozmiar, walor (umiejscowienie na skali między białym i czarnym), wzór, kolor, kierunek i kształt110. Każdej z tych zmiennych można przypisać określone właściwości komunikacyjne, które Bertin podzielił na jakościowe (wskazujące przynależność do kategorii czy grup, niestopniowalne), ilościowe (wskazujące intensywność zjawisk, stopniowalne) i porządkowe (wskazujące kolejność, stopniowalne). Swoją Semiologię graficzną pisał z myślą o autorach map i wizualizacji danych ilościowych, ale jego spostrzeżenia znajdują zastosowanie we wszystkich rodzajach komunikatów wizualnych, ponieważ mówią o uniwersalnych właściwościach elementów składających się na obraz.

Analogię tekstu i obrazu łatwiej wyjaśnia odniesienie do lektury jako operacji semiotycznej. Czytanie, w takim ujęciu, polega na „systematycznym gromadzeniu znaków składających się na wspólne uniwersum sensów”111, natomiast „czytelnikiem jest ktoś, kto w danym momencie poświęca się bez reszty procesom percepcji, rozumienia i interpretacji znaków składających się na komunikat”112. W tym sensie czytelnikiem obrazu malarskiego może być każdy, kto usiłuje zrozumieć przedstawienie, próbując rozpoznać motywy czy alegorie. Czytelnikiem obrazu jest się także wtedy, gdy szuka się (choć nie zawsze znajduje) poza-intelektualnych sensów, których bogactwo jest istotą sztuki. W obrazie kolejność lektury nie jest narzucona z góry, ale podobnie jest w wypadku literackich hipertekstów. Obraz jest tekstem, o ile rozumiemy tekst jako „coś, co można interpretować”. Ta myśl powraca w dyskusjach nad alfabetyzmem wizualnym, którego istotę stanowi dostrzeganie potrzeby interpretacji obrazów, ich pogłębionej lektury.

Diagram przedstawiający drzewo Sefirot – przykład starodawnej infografiki. Schemat ma formę rozciągniętej w pionie (bardziej na dole niż u góry) sześciokątnej figury geometrycznej, której krawędzie składają się z podwójnej linii. Na wierzchołkach figury i na niektórych krawędziach lub wewnątrz niej umieszczono okręgi z symbolami astrologicznymi. Okręgi połączono ze sobą za pomocą podwójnych linii.

Przeciwnicy (lub może raczej sceptycy) metafory języka wizualnego, tacy jak James Elkins czy Barbara Maria Stafford, zwracają uwagę na fakt, że posługiwanie się tym terminem nie pomaga wyjaśnić, jak działa obraz, a wręcz odwrotnie – przeszkadza w patrzeniu, ponieważ skłania do szukania analogii do języków naturalnych nawet tam, gdzie tak naprawdę ich nie ma. Dążenie do bezwzględnej symetrii prowadzi do zniekształcania pojęć. Ich zdaniem nie należy mówić o czytaniu obrazu – współcześnie poświęcamy im za mało czasu, w zalewie informacji konsumujemy je szybko i zazwyczaj nieuważnie. Do takiego odbioru są zresztą tworzone. Czytanie obrazów praktykowano w przeszłości – ślęcząc nad dawnymi infografikami (np. przekazującymi wiedzę alchemiczną), których zrozumienie wymagało długich godzin studiowania, niezbędnych do zgłębienia skomplikowanej ikonografii113. Ponadto, skłonność do podkreślania podobieństw może wynikać z przekonania o istnieniu komunikacyjnej hierarchii, na której szczycie znajduje się język naturalny/tekst, a wszystkie inne środki, w tym obraz, odnoszą się do niego na zasadzie naśladownictwa114.

Zastrzeżenia wynikają także z faktu, że niemożliwym jest skatalogowanie wszystkich zasad „gramatyki” i wszystkich „słów” języka wizualnego – obraz jest zanadto amorficzny. Znane są utopijne próby spisania wszystkich możliwych kolorów: wszystkie jednak były skazane na porażkę, ponieważ kolor to nie tylko kwestia mierzalnych parametrów (długości fali świetlnej), ale także indywidualnego postrzegania. Prawdziwie skończonym zbiorem byłby więc zbiór wszystkich możliwych kolorów widzianych przez wszystkich możliwych ludzi.

W pewnym sensie byłoby to i tak zadanie prostsze do wykonania niż kodyfikacja języka naturalnego w całej jego złożoności – zamykanie języka w ramy słowników i zasad gramatyki wymaga istnienia specjalistycznych organów posiadających sprawczość w ustalaniu norm (takich jak na przykład Rada Języka Polskiego). Kodyfikacja języków, które nie są otoczone instytucjonalną kuratelą, to kwestia dużo trudniejsza, ponieważ nie jest jasne, kto ma decydować o tym, co uchodzi za poprawne, a co nie.

Jeśli postrzega się obraz i tekst jako dwa samodzielne, ale wzajemnie na siebie wpływające języki, można mówić o tłumaczeniu z jednego na drugi. Jeśli nie przekonuje nas metafora języka wizualnego, można mówić także, bardziej zachowawczo, o transpozycji czy remediacji treści. Zmiana języka, trybu czy medium nie może odbyć się bez pewnych zniekształceń pierwotnej treści, ale nie znaczy to, że treści muszą ulec redukcji. Zakres komunikacyjny obrazu nie jest wcale węższy niż ten oferowany przez język – za pomocą środków wizualnych możemy bowiem opowiadać, przekonywać, negować, wypowiadać się w sposób dwuznaczny czy ironiczny.

Interfejs tekstu

Tekst jest wizualną formą słów. Dziedziny takie jak typografia i kaligrafia odwołują się do tych właśnie wizualnych aspektów. Tekst to obraz subtelny – często nie dostrzegamy jego „obrazowości”.

Najbardziej widoczna jest, gdy porównujemy rozmaite formy tekstu.

Zdanie „Najbardziej widoczna jest, gdy porównujemy rozmaite formy tekstu”, zapisane odręcznie, lecz wciąż czytelnie.
Zdanie „Najbardziej widoczna jest, gdy porównujemy rozmaite formy tekstu”, zapisane odręcznie w sposób nieczytelny. Litery są spłaszczone i rozciągnięte.

Nie trzeba nawet ingerować w same znaki, by zmienić wygląd tekstu.

N i e t r z e b a n a w e t i n g e r o w a ć w s a m e z n a k i , b y z m i e n i ć w y g l ą d t e k s t u .

Nietrzebanawetingerowaćwsameznaki,byzmienićwyglądtekstu.

Nie ma stylu zerowego w typografii… chociaż niektóre sposoby zapisu wydają się nim być. Niektórzy uważają, że forma tekstu powinna być jak kieliszek na wino – ważny dlatego, że pełni funkcję naczynia. To wino, a nie kieliszek stanowi obiekt naszego zainteresowania; jednak z jakiegoś powodu podajemy wino właśnie w kieliszku, a nie w kamionkowym kubku, a różne rodzaje wina serwujemy w różnych kieliszkach. Nie jest to tylko kwestia estetyki – odpowiednio dobrane naczynie ma wyeksponować aromat wina i utrzymać właściwą temperaturę. Beatrice Warde, krytyczka i historyczka projektowania, zauważyła, że człowiek, który jako pierwszy nalał wino do naczynia ze szkła, a nie gliny lub metalu, musiał zadać sobie pytanie: „Do czego ma służyć ten przedmiot?” – i dlatego można nazwać go modernistą w pełnym znaczeniu tego słowa115.

W pierwszym momencie po otwarciu książki widzimy obraz w „ramie”: blok tekstu, czyli szarą plamę utworzoną ze znaków w rytmicznie ułożonych wierszach. Ramę tego obrazu stanowią marginesy. W przypadku książki-kodeksu, czyli składającej się ze zszytych lub sklejonych po jednej stronie arkuszy papieru, ramy te są ustalone przez projektanta. Szerokość marginesów jest wynikiem decyzji o tym, czy czytelnik ma mieć miejsce na notatki, czy raczej należy zmieścić jak najwięcej tekstu na stronie, by książka miała mniejszą objętość (i tym samym była tańsza w druku). W książce-kodeksie widzimy naraz jedynie dwie sąsiadujące ze sobą strony, tak zwaną rozkładówkę. Inaczej sprawa miała się z książkami w formie zwojów, które można było rozwijać na preferowaną szerokość. Zwój tekstu powrócił do łask w postaci mechanizmu nieskończonego przewijania, z którym mamy do czynienia w internecie.

Rysunek przedstawia widok rozwiniętego zwoju i rozłożonej książki w formie kodeksu.

Książka, niezależnie od tego, czy ma postać trójwymiarowego obiektu wykonanego z papieru czy pikseli wyświetlanych na ekranie, nie jest przezroczystym pojemnikiem na treść, ale „maszyną do czytania”, wypadkową wielu technologii, od druku po elektroniczny atrament i inne rozwiązania, których rozwój obserwujemy na własne oczy. Podobnie jak samochód czy krzesło, książka może być ergonomiczna i wspomagać wykonywanie przeznaczonej czynności, czyli bycia czytaną i rozumianą. Analogicznie do wielu innych przedmiotów może być niewygodna (gdy format jest za duży, by komfortowo trzymać go w ręce) czy działać wadliwie – kiedy z powodu zbyt cienkiego papieru litery z kilku stron zlewają przed oczami w szarą masę. Książka jest „interfejsem”, który wpływa na to, jakim doświadczeniem jest dla nas obcowanie z daną treścią116.

Książka jest przedmiotem

Materialność tekstu, jego układ oraz wszystkie inne elementy, które za Genette’em można określić jako paratekst, wydają się przezroczyste. Traktuje się je jak okno, przez które obserwujemy świat. Jednak okna (podobnie jak przywołane wcześniej kieliszki na wino) są rozmaite – elegancki porte-fenêtre służy zupełnie innym celom niż otwór strzelniczy117.

Schematyczny rysunek pokazujący książkę „pop-up”, przy której rozkładaniu wysuwają się dodatkowe, wystające ze stron elementy.

Elastyczność interfejsu książki i jego możliwości najlepiej widać w książkach dla dzieci, bo to właśnie w nich zazwyczaj realizują się najśmielsze pomysły. Strony mogą mieć otwory, różnić się między sobą wielkością czy kolorem. Popularne są książki przeznaczone do oglądania przez kolorowe okulary albo takie, które zawierają elementy do dotykania, a nie oglądania. Te wszystkie działające na wyobraźnię rozwiązania (za którymi przepadają także dorośli) nie są dekoracją, ale ważnym czynnikiem budującym narrację.

Przykład liberatury. Ilustracja pokazuje książkę w formie dwóch kodeksów, sklejonych ze sobą okładkami tak, że otwierają się do przodu i do tyłu.

Szerokie możliwości artystyczne otwiera nie tylko treść, ale i wizualność oraz materia książki. Najpełniej są one wykorzystane w liberaturze (uwaga, w tym słowie nie ma literówki), dziedzinie twórczości sytuującej się pomiędzy literaturą, książką artystyczną a sztukami wizualnymi. Liberatura może przybrać formę niezszytych kartek, utworu poetyckiego umieszczonego w butelce czy trzech kodeksów „syjamskich”, połączonych ze sobą okładkami118. Wspólnym mianownikiem jest to, że ich forma jest jednocześnie treścią. Klasycznym przykładem liberatury avant la lettre jest Tristram Shandy Laurence’a Sterne’a, powieść opublikowana po raz pierwszy w drugiej połowie XVIII wieku, zawierająca środki ekspresji, na które trudno przystać nawet współczesnemu wydawcy: „atrapę” wyklejki kończącej tom, strony całkiem puste i jedną wypełnioną czarnym prostokątem, zapisy nutowe oraz abstrakcyjne rysunki, np. osie przedstawiające bieg narracji. Przykładem reprezentującym inny określony rodzaj literacki może być tom sonetów Sto tysięcy miliardów wierszy Raymonda Queneau, książka w całości pocięta na paski, na których znajdują się pojedyncze wersy utworów. Dzięki takiej formie może powstać tytułowa ilość sonetów – układa je, zestawiając ze sobą paski, sam czytelnik.

Nie wszystkie zabiegi liberackie ingerują w całość książki. Sama okładka może być nie tylko reklamą wnętrza, ale także ważnym elementem treści – tak jest w przypadku Finneganów trenu Joyce’a. W książce tej pierwsza i czwarta strona okładki mają, wedle zamysłu autora, wyglądać tak samo, co podkreśla kolistą strukturę dzieła119. Założenie to zostało uwzględnione w niektórych wydaniach, w tym – w polskim przekładzie.

Uniwersalnym wnioskiem, który płynie z lektury liberatury jest to, że przestrzeń strony i forma wizualna mogą być tworzywem, którego wykorzystanie nie osłabia, a wzmacnia działanie warstwy literackiej. Naruszanie uświęconych tradycją konwencji, na przykład tej mówiącej, że powieść musi mieć formę kodeksową, może być pierwszym krokiem do nowej jakości artystycznej.

Tekst naukowy

Z publikacjami naukowymi ze względu na ich funkcję informacyjną postępuje się oczywiście dużo ostrożniej, co nie znaczy, że ich formy nie można już w żaden sposób udoskonalić. Rozwiązania tak ze współczesnej perspektywy oczywiste i banalne, jak paginacja, stosowanie nagłówków czy spisy treści pojawiły się, ponieważ zauważono niewielką funkcjonalność tekstu pozbawionego segmentacji i elementów ułatwiających nawigację. Proces doskonalenia formatów i transformacji przestarzałych konwencji nigdy nie jest ostatecznie zakończony, choć przeszkodą w jego kontynuowaniu z pewnością jest przyzwyczajenie i skostnienie form. Rozmaite rozwiązania typograficzne i ich konsekwencje znaczeniowe zostały przetestowane w niewielkiej książce autotematycznej Diagrammatic Writing Johanny Drucker120, badaczki kultury wizualnej i artystki zajmującej się sztuką książki. Autorka ta pisze o sposobach kompozycji tekstu, elementach takich jak przypisy czy indeks, używając dokładnie tych elementów. Ten metatekstualny zabieg uzmysławia, jak dużej ilości zabiegów z zakresu architektury informacji jest poddawana większość tekstów, które czytamy.

Każdy wynalazek podlega ewolucji – czynnikami, które ją ukierunkowują, są między innymi zmieniające się możliwości techniczne. W odniesieniu do „interfejsu” tekstu, czynnikiem technologicznym jest oczywiście komputer z programami graficznymi, cyfrowy skład tekstu i rozmaite formy druku lub możliwość publikacji w internecie – z technologicznego punktu widzenia zaprojektowanie funkcjonalnej i estetycznej książki jest dziś łatwiejsze niż kiedykolwiek wcześniej.

W tekście naukowym istotne miejsce zajmują elementy służące nawigacji: numeracja stron, żywa pagina (umieszczona u góry strony informacja, zazwyczaj tytuł rozdziału) spis treści oraz indeks. Nieodzowną część tekstu naukowego stanowią także przypisy, których funkcją jest odsyłanie z tekstu głównego do treści pobocznych, choć nie zawsze drugorzędnych. Każdy rodzaj przypisu nieco inaczej działa w interfejsie artykułu lub książki – zastanawiamy się nad tym rzadko, a autor musi zazwyczaj użyć wymaganego przez redakcję czy wydawnictwo sposobu oznaczania przypisów. Decyzja o tym, jak będzie wyglądał „interfejs” naszego tekstu, powinna być świadoma – w ten sposób można za pomocą formy wpływać na komunikatywność treści.

Przypisy to narzędzie hipertekstowe – odsyłają nas albo do innego miejsca w danym tekście, albo zupełnie poza tekst. Odniesienia (zarówno „analogowe” przypisy, jak i linki w dokumentach cyfrowych) można podzielić na

  • egzosemiczne, czyli dygresje i swobodne skojarzenia

  • endosemiczne, czyli takie, które pogłębiają wiedzę na temat danego zagadnienia121

Te drugie są przeznaczone dla czytelnika szczególnie zainteresowanego tematem, czyli nie dla każdego. Być może ciekawym rozwiązaniem poprawiającym nawigację po tekście byłoby zróżnicowanie wizualne tych dwóch typów odnośników, np. poprzez zastosowanie piktogramów. W pewnym stopniu ten podział oddaje stosowanie przypisów bibliograficznych oznaczonych cyframi oraz innego rodzaju odnośników (zazwyczaj przypisów rzeczowych) za pomocą *, dawniej także za pomocą .

Najpowszechniejszy w Polsce rodzaj przypisów to te dolne. Mają tę zaletę, że dają dostęp do treści przypisu od razu, bez konieczności zaglądania na koniec rozdziału bądź książki. Niekorzystnie wpływają jednak na wygląd całej strony, a gdy ich objętość się rozrasta, zaczynają wyglądać jak najważniejsza treść na stronie. Rzadko stosowanym rozwiązaniem są przypisy boczne – do umieszczenia ich potrzebny jest bardzo szeroki margines, za którym z kolei nie przepadają wydawcy, ponieważ puste przestrzenie na stronie podwyższają koszty druku. Przypisy harwardzkie, czyli umieszczone w tekście (Nowak, 2017:10), dają szybki dostęp do nazwiska autora i daty publikacji, ale zapoznanie się z tytułem pracy wymaga już sięgnięcia do umieszczonej pod koniec książki bibliografii. Ponadto przypisy harwardzkie zaburzają płynność czytania, co może być uciążliwe, zwłaszcza jeśli są rozmieszczone gęsto. Uciążliwym zabiegiem bywa stosowanie skrótów takich jak dz. cyt. czy op. cit. – gdy praca X jest cytowana wielokrotnie, w różnych miejscach tekstu, czytelnik, który zapoznaje się z nim wyrywkowo, nie będzie mógł odszukać źródła. W przypisie znajdzie jedynie informację o konieczności znalezienia pierwszego przypisu, w którym pojawia się praca X, bez sugestii, gdzie znajduje się ten przypis. Aby znaleźć pracę X, musi przebijać się przez gąszcz dz.cyt./op.cit., który ciągnie się czasami przez wiele stron. Nie jest to oczywiście problem najwyższej wagi, ale z pewnością jeden z tych, które pokazują, w jaki sposób „interfejs” książki może zachęcać bądź zniechęcać do konkretnego sposobu czytania – przypisy zawierające odnośniki do innych przypisów utrudniają czytanie inne niż „od deski do deski”.

W niniejszej książce przypisy mają formułę I. Nazwisko, Tytuł, Rok, strona, nie ma skrótów takich jak „dz.cyt./op.cit”, „tamże”, „tenże/taż” itd. Wszystkie tytuły są pisane kursywą, nie ma zróżnicowania na tytuł artykułu i tytuł czasopisma. W tej zredukowanej wersji przypisów nie ma informacji o miejscu wydania, wydawnictwie ani nazwisku tłumacza, tytuły są podawane w wersji skróconej (bez podtytułów) – dane te można znaleźć w bibliografii. Przypisy bibliograficzne nie są niezbędne do zrozumienia tekstu, dlatego w wersji cyfrowej są dostępne „na żądanie” , tj. po kliknięciu. W ten sposób tworzy się hierarchia treści: to, co opcjonalne nie zakłóca odbioru tego, co najistotniejsze. Dodatkowo, treść przypisów jest odróżniona od tekstu głównego krojem pisma oraz niebieskim kolorem tła, który w całej książce jest stosowany do oznaczenia elementów paratekstu, metatekstu oraz interfejsu.

Czytelność/czytalność

After legibility, who cares?

J. Drucker, Diagrammatic Writing

O ile większość drukowanych tekstów naukowych jest możliwa do odczytania, czytelna (legible), to zdecydowanie nie wszystkie są łatwe w czytaniu (readable, kusząca jest możliwość przetłumaczenia tego jako czytalne)122. Dla typografów i projektantów graficznych pojęcia legibilityreadability są bardzo użyteczne – pozwalają odnieść się do wyglądu tekstu odpowiednio w skali mikro i makro. Różnicę między tymi pojęciami można sprowadzić do tego, że pierwsze jest cechą kroju pisma, natomiast drugie dotyczy raczej formy całego tekstu.

czytelnośćmożliwość odróżniania znakówwygląd znaków i ich wielkość, odstępy między znakami
czytalnośćszybkość czytania i stopień zrozumienia tekstuszerokość łamu a szerokość marginesów, odstępy między wyrazami, kolor i grubość papieru itd.123
Widzialność → warunkuje → czytelność → warunkuje→ czytalność.

O czytelności i czytalności tekstu nigdy nie decyduje jeden parametr (np. krój pisma), ale kombinacja co najmniej kilku właściwości graficznych. Świetnie zaprojektowany krój pisma nie zda się na wiele, jeśli zbyt wąska odległość między wierszami (interlinia) sprawia, że wzrok „gubi” czytany właśnie wiersz lub gdy przez zbyt cienki papier przebija tekst z poprzedniej strony. Wizualna forma tekstu to system naczyń połączonych – projektant musi uważnie przyglądać się każdemu z nich osobno i rozważyć też, jak będą one współgrać ze sobą.

Różnice między szeryfowym a bezszeryfowym krojem pisma na przykładzie litery „F”.

W kręgu humanistyki istnieje co najmniej kilka zagadnień typograficznych, które obrosły mitami. Dwa najważniejsze to wpływ kroju na czytalność tekstu oraz kwestia, którą można sprowadzić do pytania „justować czy nie justować?”. Pierwsze z tych zagadnień przybiera zazwyczaj postać sporu o to, czy lepsze są kroje szeryfowe czy bezszeryfowe. Ilość badań na ten temat jest imponująca, ale w większości z nich kwestia nie jest rozstrzygnięta, w niektórych – szala przechyla się nieznacznie w stronę krojów szeryfowych124. Cechą przemawiającą za krojami szeryfowymi w tekście ciągłym jest to, że szeryfy tworzą poziome linie, które „prowadzą” oko wzdłuż wierszy tekstu, co ułatwia płynność czytania. Problem z mierzalnością tego zagadnienia przy pomocy metod naukowych wynika w znacznej mierze z tego, że nie da się wydestylować z tekstu jednej zmiennej (np. kroju pisma) i jej przebadać. Kłopot sprawia także określenie, które kryterium ma być decydujące: szybkość czytania, stopień zrozumienia tekstu czy ilość fiksacji?125. Typografowie i projektanci pozostają nieufni wobec wyników badań przeprowadzanych w sztucznych, laboratoryjnych warunkach, często przez ludzi, którzy nie mają odpowiedniej wiedzy z zakresu typografii.

Ilustracja zjawiska korytarzy w tekście.

W kręgach akademickich dość powszechne jest wymaganie od autorów justowania (wyrównywania tekstu do obu krawędzi kolumny), jakby to justunek był warunkiem „porządnego” wyglądu tekstu. Dobrze wyjustowany tekst sprawia wrażenie jednolitego – gdy patrzymy na całą stronę, nie rzucają się w oczy plamy pustej przestrzeni, całość jest rytmiczną kompozycją z czerni i bieli. Na źle wyjustowanej stronie miejsca bez tekstu tworzą utrudniające czytanie „korytarze”.

Przykłady justowania. W tekście niestarannie wyjustowanym odstępy między słowami są różnej wielkości, a w tekście wyjustowanym starannie – podobne.

Nasze oczy nie wodzą po tekście w sposób ciągły, ale wykonują skoki noszące nazwę sakad. Momenty, w których wzrok się zatrzymuje, nazywane są fiksacjami. Im bardziej zaawansowani jesteśmy w czytaniu, tym mniej fiksacji ma miejsce (przeciętny czytelnik potrzebuje pięciu fiksacji na każdy wiersz tekstu)126. Regularne odstępy (tzw. światła) między wyrazami i znakami ułatwiają oczom „skakanie” – nie musimy poświęcać dużo wysiłku, by trafić wzrokiem w początek wyrazu.

Arcydziełem ze względu na jednolitość tekstu i idealnie równe marginesy jest Biblia czterdziestodwuwierszowa Gutenberga, która zawstydza nawet w dobie cyfrowego składu. Na korzyść Gutenberga działał fakt, że w jego czasach nie istniały jeszcze ścisłe reguły dzielenia wyrazów, więc zecerzy mogli kierować się wyłącznie względami estetycznymi127. Tekst wyrównywano, umieszczając między czcionkami w wierszowniku płytki i sztabki różnej szerokości: to właśnie one były nazywane justunkiem (lub materiałem justunkowym). Była to czynność wyjątkowo żmudna, ale to samo można powiedzieć o niemal wszystkich czynnościach wykonywanych podczas ręcznego składu.

Tekst złożony poprawnie w formę „chorągiewki”, gdzie wersy są podobnej długości.

Tekst złożony poprawnie w formę „chorągiewki”, gdzie wersy są podobnej długości.

W składzie komputerowym w celu uzyskania jednolitej kolumny manipuluje się odległościami (światłami) między pojedynczymi słowami i znakami, a także wielkością znaków – zmniejszenie lub zwiększenie jej o kilka procent jest niezauważalne dla ludzkiego oka, a pozwala uzyskać tekst o bardziej równej szarości. Teksty często justuje się bez zważania na to, że kolumna tekstu jest do tego zbyt szeroka bądź zbyt wąska. W tym przypadku pomocna okazuje się reguła mówiąca, że tekst można wyrównywać obustronnie, gdy ilość znaków w wierszu wynosi od 66 do 72 znaków (łącznie ze spacjami). Kończąc jeden wiersz i przechodząc do następnego, oko czytelnika pokonuje drogę – gdy wiersze są zbyt długie, gubi się i ma trudność z trafieniem w kolejny wiersz, co oczywiście nie sprzyja płynnemu czytaniu. Gdy z kolei są zbyt krótkie, musimy często przenosić wzrok, co jest nie mniej irytujące.

Wcięcie w pierwszym wersie.

Wysunięcie pierwszego wersu.

Powiększona interlinia na styku dwóch akapitów.

Innym rodzajem składu jest wyrównanie do jednej, w Europie zazwyczaj lewej, krawędzi, czyli tzw. skład „na chorągiewkę”. Wiersze nie powinny znacząco różnić się od siebie długością, w przeciwnym razie chorągiewka będzie zbyt mocno falować, a to, podobnie jak niejednolite odstępy w tekście wyjustowanym, obniża płynność czytania. Bez wątpienia właściwie wyrównany jednostronnie tekst będzie łatwiejszy w czytaniu niż wyjustowany źle, dlatego lepiej nie traktować obustronnego wyrównania jako typograficznego dogmatu.

Początek nowej myśli zazwyczaj sygnalizuje się wcięciem akapitowym. To pozostałość z czasów książki rękopiśmiennej – kopista zostawiał puste miejsce, w którym rubrykator (od rubricare czyli „kolorować na czerwono”) umieszczał znak służący segmentacji tekstu i ułatwieniu nawigowania po nim: nagłówek, inicjał lub inny znak128. Kontrastowa czerwień świetnie sprawdzała się jako punkt zaczepienia dla wzroku. Ten uświęcony tradycją sposób oznaczania początku akapitu nie jest jednak jedynym. Pierwszy wiersz akapitu może być również wysunięty przed kolumnę. Fragmenty tekstu można również oddzielać przy pomocy powiększonej interlinii, czyli odległości między wierszami – jak w niniejszej książce.

Przemiany lektury

Pierwotną formą lektury było czytanie na głos. W antycznym Rzymie zamożni zlecali głośne czytanie swoim niewolnikom. Tekst zapisywano w formie ciągłej (tzw. scriptura continua), bez oddzielania od siebie poszczególnych słów pustą przestrzenią. W Europie stosowanie spacji pojawiło się w średniowieczu – trudno ten moment określić precyzyjnie, ponieważ w różnych miejscach przemiany zachodziły z różną dynamiką129. Odczytanie tekstu w postaci ciągu znaków wymagało ogromnego skupienia, a ponadto było dość czasochłonne; nie można było się obejść bez głośnej lub cichej oralizacji tekstu. Taki format zapisu sprawiał, że, w porównaniu z tekstem segmentowanym, oko wykonywało zdecydowanie więcej ruchów, musząc odnaleźć początek i koniec wyrazu, ponieważ miejsca te nie były wyróżnione wizualnie. Można zatem zrozumieć zanotowany w Wyznaniach zachwyt św. Augustyna nad tym, że św. Ambroży posiadł umiejętność czytania bez posługiwania się głosem – nie była to kompetencja powszechna.

Przykład tekstu w formie ciągłej, zapisanego kapitalikami i krojem stylizowanym na antyczny.

Schematyczny przykład wyglądu leporello.

Drugą nowinką ważną dla zmiany sposobu czytania była książka-kodeks, która, pojawiwszy się już w I w. n.e., stopniowo zastępowała nieporęczne zwoje130. W stadium przejściowym korzystano także z formy niezbyt dobrze znanej współcześnie – orihonu, czyli harmonijki, która składała się z jednego arkusza papieru (jak zwój), a zarazem miała podział na strony (jak kodeks)131. Taka forma książki cieszyła się szczególną popularnością w Azji, a oznaczające ją słowo jest pochodzenia japońskiego. Współcześnie książki harmonijkowe nazywa się także leporello – od imienia jednego z bohaterów opery Don Giovanni, który w takiej właśnie formie prowadził rejestr podbojów miłosnych swojego pana.

Narodziny kodeksu wiązały się z możliwością robienia notatek na marginesach oraz lektury wybiórczej. Zwój był nieporęczny, bo jego obsługa zajmowała obie ręce, ponadto nie dało się go kartkować w poszukiwaniu potrzebnej treści.

Zapisany na zszytych kartach „tekst nie jest już linią, nicią czy sznurkiem do rozwijania, ale powierzchnią, której zawartość przyswajana jest w krzyżujących się podejściach”132. Taką płaszczyznę można eksplorować bardziej dowolnie, co sprzyja samodzielnej lekturze. W Europie mniej więcej od XII wieku czytanie ciche stawało się coraz popularniejsze, aż stopniowo stało się sposobem dominującym, jakim jest dziś133.

Czytanie może przebiegać rozmaicie. Tym mianem określamy zarówno uważne śledzenie tekstu zdanie po zdaniu, od początku do końca, jak i szybkie „skanowanie” w poszukiwaniu interesujących nas treści (np. konkretnego zagadnienia) czy pobieżne przeglądanie, gdy chcemy stwierdzić, czego dotyczy dany tekst i jaki ma charakter. Każdemu z tych sposobów czytania sprzyjają inne środki typograficzne oraz elementy interfejsu.

lektura ekstensywnauważne czytaniecałość tekstutekst ciągły
lektura intensywnaskanowaniepunkty (pojęcia, zagadnienia, słowa kluczowe)tekst ciągły (z wyróżnieniami), indeks, słownik, baza danych, hasła na marginesach
przeglądanieOgólne spostrzeżenia o całości tekstutekst ciągły, spis treści, informacje na okładce

Nie każdy tekst jest przeznaczony do uważnego czytania. Nie wynika to wyłącznie, jak chcieliby rzecz widzieć niektórzy, z medialnego przebodźcowania, które czyni nas bardziej niecierpliwymi. Ostatecznie nawet w XVIII wieku Encyklopedię niekoniecznie czytało się od deski do deski. Pisząc, a potem projektując wizualną formę naszego tekstu, powinniśmy najpierw zastanowić się, w jaki sposób powinien on być czytany. Określenie funkcji pozwoli dobrać jak najodpowiedniejszą formę: środki typograficzne mogą sprawić, że tekst będzie nie tylko łatwy w czytaniu i przejrzysty, ale też bardziej zrozumiały. Podobną rolę pełnią znaki interpunkcyjne, które nie zawsze są prostym przeniesieniem właściwości słowa mówionego na słowo pisane. O ile pauza powstała jako odpowiednik oddechu między wypowiadanymi słowami, o tyle przecinek powstał jako wizualny wyznacznik jednostek znaczeniowych134.

Przykład wizualnego wyróżnienia jednostek znaczeniowych. Część poziomych linii symbolizujących wersy tekstu skrócono od lewej i dodano im z tej strony kropki, symbolizujące punkty listy.

Takimi wyznacznikami mogą być także wypunktowania czy nagłówki. Zrozumienie tekstu mogą wspomagać przewidziane przez autora wyróżnienia (pogrubiony krój pisma czy kolor), a unikanie graficznej monotonii pomaga w utrzymaniu uwagi czytelnika.

Wyróżnienia w tekście działają podobnie do występujących w warstwie językowej żartów, ironii, celnych metafor lub innych zaskakujących czytelnika chwytów językowych – przyciągają uwagę. W procesie słuchania czy lektury nie da się uniknąć rozpraszania i koncentrować na wszystkim – ludzka percepcja jest bardzo selektywna. Wyróżnienia w tekście podpowiadają, na co najlepiej ją nakierować, pomagają nam nawigować po tekście i sprawiają, że podróż jest zdecydowanie wygodniejsza – szlak jest oznaczony, trudniej się zgubić. Nawet zabieg tak oczywisty jak rozpoczynanie zdania od Wielkiej Litery ułatwia płynne czytanie. Nieprzekonanym można polecić pozbawioną wielkich liter książkę słynnego projektanta Otla Aichera Świat jako projekt (na szczęście jego prace graficzne są dużo bardziej funkcjonalne).

Gdy bada się wpływ formy tekstu, w tym zawartych w nim wyróżnień, na procesy poznawcze, ocenia się zazwyczaj kilka parametrów, takich jak zrozumieniezapamiętywalność. Nie zawsze idą one w parze – zapamiętywanie bez zrozumienia sprowadza się do mechanicznego odtwarzania treści. Natomiast zapamiętywanie połączone ze zrozumieniem umożliwia późniejsze przywołanie głównych tez tekstu bądź płynących z niego wniosków czy parafrazowanie go. Wyróżnienia takie jak tytuły, nagłówki, wypunktowania, umiejętne użycie pogrubienia lub koloru zapewniają to drugie, co zostało potwierdzone w eksperymentach psychologów135.

Typograficzny porządek

By różnego rodzaju wyróżnienia w tekście dobrze spełniały swoją rolę, to znaczy prowadziły czytelnika przez treść, a nie dezorientowały go, potrzebny jest pewien porządek informacji, jasny nie tylko dla autora, ale także dla odbiorcy. Porządek ten pojawia się, gdy informacje tworzą przejrzystą i zrozumiałą dla czytelnika strukturę.

Wybrane środki wizualne należy stosować w konsekwentny sposób – nie jest to kwestia projektowego puryzmu, ale raczej „architektonicznego” podejścia do informacji. Człowiek podświadomie szuka logicznych powiązań między elementami o podobnym wyglądzie, więc przypadkowy charakter wizualnych analogii będzie wprowadzał czytelnika w błąd.

Pracując nad architekturą informacji, warto zachować oszczędność: do wyróżnienia treści w tekście głównym wystarczy jeden środek wizualny (pogrubienie). Zastosowanie dwóch jest już wyróżnieniem podwójnym (pogrubienie + kolor), co oznacza, że wkraczamy w sferę dekoracji i graficznej tautologii. Użycie koloru może oznaczać treść wyższą w hierarchii od tej, która jest jedynie pogrubiona, i wtedy stanowi wyróżnienie znaczące, lub taką, która należy do dwóch kategorii – treści wyróżnianych pogrubieniemzarazem treści wyróżnianych kolorem. Za punkt orientacyjny przyjmijmy zasadę najmniejszej skutecznej różnicy – nie trzeba odróżniać treści od siebie, różnicując kilka parametrów tekstu (wielkość, grubość, kolor itp.), jeśli różnica w jednym będzie zauważalna dla czytelnika. Edward Tufte, teoretyk wizualizacji, który sformułował tę zasadę, nazywał ją „brzytwą Ockhama dla projektowania informacji”136.

Ustalanie gradacji najlepiej zacząć od fundamentu: decyzji, jak będzie wyglądał tekst główny, by dopiero później modyfikować jego parametry – zwiększając wielkość liter, dodając pogrubienie czy kolor. W ten sposób uzyska się wygląd wyróżnień z zachowaniem ich wzajemnej hierarchii. W nagłówkach i wyróżnieniach można stosować inny krój pisma niż ten wykorzystany w tekście głównym, ale jest to posunięcie ryzykowne.

Przykład gradacji stylów. Słowa „Tekst”, „Podrozdział”, „Rozdział” i „Tytuł” zapisano kolejno od lewej do prawej, zwiększając po kolei wielkość liter w słowach i dodając pogrubienie.

Dobranie do siebie dwóch krojów, które będą wyglądały harmonijnie na jednej płaszczyźnie, nie jest łatwym zadaniem. Dużo bezpieczniejszym rozwiązaniem jest korzystanie z jednej rodziny pism, która zawiera kilka odmian, różniących się grubością czy pochyleniem. Te odmiany projektanci uzyskują nie przez automatyczne pogrubienie lub pochylenie, ale przygotowując nowy zestaw znaków: podobny do zestawu budującego odmianę podstawową, ale nie identyczny.

Schemat przedstawiający rodzinę krojów Helvetica, gdzie nazwy poszczególnych stylów zapisano w odpowiadający im sposób.

Rodział 4 z 6

Struktury wizualne w humanistyce