...INTRO: 

Tekst ten napisany był w 2003, trochę go zaktualizowałem (25 VII 2005).

krótka historia zamiast wstępu

Tim Berners-Lee stworzył HTML jako prosty ale łatwo rozszerzalny schemat zapisu informacji - zawarty w pliku tekstowym z niewielką ilością znaczników, łatwy do nauki i edycji. W ten sposób dał rosnącej liczbie użytkowników internetu elastyczne narzędzie komunikacji. Swoją stronę w internecie mógł mieć każdy. Co więcej - każdy mógł ją zrobić, bez długiej nauki czy specjalistycznych narzędzi.

W zamierzeniu miał to być otwarty na wiele hipertekstowych formatów sposób komunikacji pomiędzy różnego rodzaju klientami. Raczej miał być uniwersalnym pojemnikiem na róznego rodzaju dane dystrybuowane poprzez serwery (czyli mniej więcej tym czym ma być XML) niż pojedynczym standardem hipertekstu, który - jak to się w praktyce okazało - właściwie nie ma żadnego standardu.

Rozwój HTML-u przebiegał w sposób chaotyczny i burzliwy, nikogo nie zadowalał. Z jednej strony byli użytkownicy chcący w coraz większym stopniu mieć wpływ na wygląd swoich stron, który - z drugiej strony - w coraz większym stopniu zależał od tego w jakiej przeglądarce jest widziana. Do tego przeglądarek było coraz więcej i coraz bardziej zróżnicowanych.
Tendencja do zwiększania kontroli nad wyglądem powodowała rozwój zarówno samego HTML-u jak i jego czytników, czego paradoksalnym efektem było coraz większe zróżnicowanie sposobów wyświetlania kodu.
Stawało się to coraz większym problemem z powodu konfliktu dwóch producentów: Netscape i Microsoftu. Obie firmy chciały zawłaszczyć internet tworząc własną wersję HTML-u i usiłując uczynić z niej panującą normę. Gdzieś obok tego były daremne wysiłki W3C - nie zawsze życiowe - próby unormowania zasad tworzenia stron WWW (klęska trzeciej wersji HTML i późniejsze powstanie standardu 3.2 jako przejściowego). Ale był to niedostrzegany ideał obok, którego toczyło się prawdziwe życie, bo tym od czego zależał wygląd internetu nie były najlepsze nawet normy ale zwykły produkt firmowy - przeglądarka. A ich rozwój zależał był uzależniony od komercyjnych interesów producentów, a w praktyce: od toczących zażarty bój o dominację na rynku MS i Netscape.

Z wielu powodów decydujący był rok 1997. Już na samym początku z opublikowaniem wersji Mosaic 3.0 z rozwoju przeglądarki wycofał się NSC pozostawiając w ten sposób na placu boju tylko dwie strony konfliktu. Wtedy też znajdujący się w coraz gorszej sytuacji Netscape - udziały Microsoftu wciąż rosły a trzecie wersje już nie różniły się tak bardzo między sobą - wypuszcza Navigatora 4.0 już za darmo, a rok pożniej ogłasza, że następna wersja będzie na licencji Open Source (uwaga: to początek projektu Mozilla).
Koniec roku to wielkie zwycięstwo Microsoftu, przełomowa w historii internetu czwarta wersja Internet Explorera.

Ale przede wszystkim wtedy powstał długo oczekiwany HTML 4.0, który wyraźnie wytyczał kierunek rozwoju: jako 'deprecated' określono wszystkie znaczniki niestrukturalne, odtąd o wyglądzie decydować miały arkusze CSS, a dokument HTML miał składać się wyłącznie z treści uporządkowanej w czytelną strukturę.
Zapewniono czytelny i logiczny podział pomiędzy treść (HTML - hipertekstowy język znaczników), wygląd (CSS - kaskadowe arkusze stylów), interakcję (język skryptowy: najczęsciej javascript), a za połączenie tego w całość odpowiadał DOM (model obiektów dokumentu).
Całość nazwano DHTML (Dynamiczny HTML) - nie był to żaden zdefiniowany standard, a raczej konstrukcja marketingowa określająca zestaw współdziałających ze sobą standardów. DHTML znacznie zwiększył możliwości WWW i właśnie zgodność z jego standardami była największą siłą MSIE 4.

Niestety DOM dla każdej przegladarki był inny, specyfikacja CSS była realizowana w różnym stopniu, a zwyczaj stosowania specyficznych, firmowych znaczników pozostał. Ze względu na rosnące udziały Microsoftu oraz wyraźny podział rynku pomiędzy dwie przeglądarki i całą zupełnie nie liczącą się niszową resztę pewnym rozwiązaniem był cross-browser design w praktyczny sposób niwelujący różnice pomiędzy przeglądarkami. Bardzo zły przykład postępowania dał sam MS, którego strony działały tylko w MSIE i coraz częsciej niestety można było spotkać strony 'nur für MSIE'.
Tymczasem pojawiło się więcej przeglądarek i browser sniffing stawał się coraz trudniejszy. Wprawdzie nowe przeglądarki były zmodyfikowane raczej w stronę coraz większej zgodności z normami W3C, ale istniały między nimi różnice i to często dość istotne. Ale widać zdecydowaną poprawę. Przede wszystkim duży sukces osiągnął projekt Mozilla i jest doskonałym przykładem czym jest Open Source, jako oprogramowanie użytkowników tworzone na potrzeby społeczności, a nie polityki marketingowej. Istnieje również bardzo funkcjonalna i szybka Opera.

Przełomem była premiera i akcja promocyjna Firefoksa. W krótkim czasie procentowa ilość przeglądarek nie-MSIE skoczyła z niecałych 5 % do ponad 20%.

Coraz częściej można spotkać strony zgodne z obecnie zalecanym standardem W3C: XHTML i nabiera popularności obyczaj strukturalnego grupowania treści, której wygląd określa CSS. Niestety wciąż najpopularniejszy jest program, który jednocześnie jest najgorszy: ustępujący i Mozilli i Operze pod względem funkcjonalności, bezpieczeństwa, szybkości i zgodności z normami.
Wydaje się, że w tej sytuacji jest tylko jedno wyjście: należy propagować zarówno inne, mniej popularne przeglądarki jak i zgodność ze standardami na stronach WWW. Obie te rzeczy nawzajem się promują i są korzystne dla wszystkich użytkowników internetu.

problem i jego rozwiązania

Internet został zaprojektowany jako otwarty system oparty na jawnych i dobrze zdefiniowanych standardach powstających w wyniku merytorycznej dyskusji. Niezależność i otwartość dobrze służyła wszystkim. Niestety dość szybko stał się polem bitewnym pomiędzy firmami, które chciały zawładnąć rynkiem i dostarczyć swoim klientom własny internet.
Jednym z najlepszych przykładów takiego działania była długo trwające starcie o narzucenie własnych standardów pomiędzy Microsoftem a Netscape. Microsoft odkrył internet późno ale szybko naprawiał zaległości. Korzystając z popularności własnego systemu operacyjnego dostarczał razem z nim za darmo swoją przeglądarkę Internet Explorer, której zadaniem było wyparcie z rynku Netscape Navigatora i zmonopolizowanie rynku. Internet, w którym jedynym liczącym się pojazdem byłby produkt Microsoftu musiałby stać się Microsoft-compatible a rozwiązania proponowane przez niezależne od MS organizacje musiałyby odejść do lamusa o ile nie byłyby zgodne z MS Standards ©. Microsoft szybko by marginalizował lub wykupywał innych uczestników rynku, co doprowadziłoby do powstania MS Internetu™.

Henry Ford dawał większą wolność w wyborze koloru Forda T: można go było przemalować, można było nawet kupić inny samochód i też wyjechać na drogę. Cel Microsoftu to doprowadzenie do sytuacji, w której wszyscy użytkownicy nie-microsoftowych programów są upośledzeni. Świat wymyślony w Redmond to rzeczywistość, gdzie Henry Ford XXI wieku jest właścicielem dróg publicznych, ma monopol na handel produktami ropopochodnymi a dla przeciętnego użytkownika dróg samochód == kolejne wersje Forda T (zawsze czarne, ale można sobie zmienić tapetę na tablicy rozdzielczej).
Oczywiście nadal możesz zbudować własną drogę i prefabrykowanych częsci skonstruować inny niż Ford T wehikuł, ale musisz się liczyć z tym, że paliwo kupione od Forda nie będzie działało dość dobrze z silnikiem innym niż ten w Fordzie T v. 6.0

Działania podejmowane przez Microsoft rzeczywiście bardzo szybko przynosiły rezultaty, mało kto pamiętał o czasach internetu sprzed MS, niebieskie "e" stało się synonimem internetu, a udział Netscape Navigatora systematycznie malał. Obie strony konfliktu zachowywały się podobnie, ignorując ustalenia W3C i na siłę forsując własne wersje HTML i jego rozszerzeń, stąd klęska standardu HTML 3.0 (i późniejszy HTML 3.2) oraz znaczniki nie należące do standardu ale bardzo popularne.

W tej sytuacji tworzenie stron internetowych wyglądało trochę na kwadraturę koła. Problem rozwiązywano na kilka sposobów:

Jakie jest więc rozwiązanie?

do wyrzucenia

Rozwój techniki to nie tylko przyswajanie nowości, ale także odstawianie do lamusa przestarzałych rozwiązań - w przypadku projektowania stron WWW, bardzo często prowizorycznych i nie spełniających swoich funkcji we właściwy sposób. Ponieważ nie tylko powodują problemy ale i posiadają swoje pod wieloma względami lepsze odpowiedniki czas je porzucić.

Layout tworzony tabelą

Używanie tabeli do rozmieszczania elementów na stronie stało się tak powszechnym zwyczajem, że uczy się tego standardowo w podręcznikach HTML.
Ale tabela powstała w celu prezentacji danych tabelarycznych (początkowo HTML służył głównie publikacji tekstów naukowych) i nie jest właściwym narzędziem do tworzenia layoutu. Bardzo długo była używana do tego celu z braku innych właściwszych narzędzi i było to sprytne wykorzystanie istniejących możliwości.

Ale od dawna istnieją lepsze metody: strukturalne elementy div i span, których własności określić można za pomocą CSS.
Jak to określa specyfikacja HTML 4 elementy div i span udostępniają mechanizm tworzenia struktury, natomiast same z siebie nie określają wyglądu - umożliwiają to dzięki atrybutom id i class CSS.
Div jest elementem blokowym a span liniowym, ze względu na lepszą kontrolę W3C zaleca używanie elementu div - oczywiście tylko do momentu, w którym nie jest niezbedny span.
Używając CSS można określić praktycznie rzecz biorąc dowolną własność elementu jak i tekstu, który się w nim znajduje. Pozycję i wielkość wyznaczyć z dokladnością do jednego piksela (lub innej wybranej jednostki, a także procentowo), istnieje również wygodny sposób na rozmieszczenie elementów względem siebie. Do dyspozycji mamy szereg własności krawędzi odstępu, marginesu, koloru tła i krawędzi, ilustracji tła i cały szereg własności tekstu, które zbliżają kontrolę nad wyglądem strony do tej znanej z tradycyjnej typografii.

Jedynym problemem pozostaje niepełna jeszcze realizacja CSS w przeglądarkach. Ale jeśli spojrzymy na statystyki najbardziej popularnych programów to okazę się, że dla ponad 99% użytkowników będzie można stworzyć nowoczesne, zgodne z normami i zbudowane z elementów div strony w taki sposób, że reszta używająca tekstowych lub przestarzałych przeglądarek będzie miała dostęp do zawartości być może nawet wygodniejszy niż można by zapewnić przy pomocy tabel.

Wprawdzie umieszczenie zawartości w komórkach tabeli jest tak oczywiste, to jednak konsekwencje użycia tego sposobu przynoszą więcej strat niż pożytku. Szczególnie widoczne jest to w skomplikowanych stronach gdzie stosuje się wielokrotnie zagnieżdżone tabele, do budowy struktury tworzy się dużą ilość bardzo nieczytelnego kodu, wystarczy jeden błąd w atrybucie rowspan lub colspan albo brak lub niepotrzebne powtórzenie, któregoś ze znaczników tabeli i cała konstrukcja się rozsypuje.
Niezależnie od użytej metody - nawet jeśli tabele tworzy się przy pomocy kreatorów - sam kod jest trudny do odczytania i jeszcze trudniejszy w modyfikacji. Na dodatek wygląd i rozmieszczenie elementów na tworzonej tą metodą stronie określa się za pomocą wielu nie-bezpośrednich metod, bardzo specyficznego zespołu skomplikowanych sztuczek wykorzystujących atrybuty i elementy powstałe dla zupełnie innych zastosowań. Tabele wydają się proste bo pierwszy etap ich tworzenia jest wręcz instynktownie łatwy, ale komlikacja gwałtownie rośnie w miarę powiększania się ilości elementów, kiedy przychodzi określić dokładniej ich wygląd zaczynaja się schody.

Użycie elementów div wydaje się natomiast zupełnie nie-instynktowne, jeśli nie wiemy jak i w jak wielkim stopniu można je kontrolować. Wymagają pewnej wiedzy i odrobiny praktyki i wtedy okazują się właściwą metodą użytą do właściwych celów. Tabele to koszmar. Ale żeby się o tym przekonać trzeba zobaczyć jak proste jest stworzenie layoutu z samych elementów div.
Polecam przeczytanie artykułu: Real World Table Free Development, na stronie Women Designer's Group.

Zalety stosowania znaczników strukturalnych w miejsce tabel:

Jednopikselowy GIF

Cytat z ksiązki Davida Siegela 'Tworzenie stron www' (Optimus, 1998), rozdział 4 'Komponowanie stron':

[...] Teraz gdy przeglądarki wersji 2.0 prawie już wyszły z obiegu, możemy przewartościować wszystkie wybiegi, sztuczki i triki, których używamy do przygotowania ładnie wyglądających stron.
Pierwsze wydanie tej książki istotnie opierało się na sztuczce z jednopikselową ilustracją GIF, objaśnionej na końcu tego rozdziału. Był to jedyny sposób na wiarygodną kontrolę nad odstępami, niezależnie od wersji i platform przeglądarek. Chociaż okazjonalnie wciąż używamy tej sztuczki, uważamy ją raczej za raczej przestarzałą protezę. Zwiększa ona obciążenie serwera, wprowadza w błąd osoby surfujące z wyłączonymi ilustracjami i w niczym nie ułatwia edycji plików w języku HTML. Sztuczka ta jest wciąż powszechnie używana w sieci, ale teraz posługujemy się innymi trikami, mającymi mniej wad. Gdy kaskadowe arkusze stylów (CSS) będą konsekwentnie i dobrze zaimplementowane w przeglądarkach (co może się zdarzyć jeszcze za naszego życia!), będziemy mogli - mam nadzieję - odrzucić większość z tych trików i zacząć wreszcie robić wszystko jak należy.

...i pod koniec tego rozdziału:

Sztuczka z jednopikselową ilustracją GIF
Kiedy zacząłem projektować witryny trzeciej generacji, jednopikselowy plik GIF pełnił ważną rolę jako oficjalna 'taśma klejąca" WWW. Zdenerwował on mnóstwo ludzi i wielu uszczęśliwił. Opis tej sztuczki zamieszczony na końcu rozdziału ma pokazać, że zbliża się jej kres, a im wcześniej to nastąpi, tym lepiej. Używaj jednopikselowej ilustracji GIF, gdy musisz określić położenie elementu, z którym tabela ani twarda spacja sobie nie radzą. Wyrzuć ją gdy nadejdą nowe technologie, które pozwolą nam uprawiać prawdziwą kompozycję.
Nie próbuję odebrać tego narzędzia projektantom witryn trzeciej generacji, ale im więcej czasu spędzisz nad jednopikselowymi ilustracjami GIF, tym bardziej będziesz tęsknić za prawdziwą kontrolą. Jednopikselowe pliki GIF mają swoje wady. Czasami się nie ładują. Kiedy umieścisz nad nimi kursor myszy, Internet Explorer (i niektóre wersje przeglądarek Netscape) próbuje pokazać tekst z parametru ALT. Robią też zamieszanie w zawierającym je kodzie HTML. Chociaż stanowiły przełom, który umożliwił powstanie wielu przebojowych witryn WWW, teraz nadszedł czas abyśmy zobaczyli, czy możemy się bez nich obejść.
Objaśnienie jednopikselowych ilustracji GIF
Ponieważ niektórzy ludzie kupili tę książkę, aby dowiedzieć się o sztuczce z jednopikselową ilustracją GIF, opiszę ją z zastrzeżeniem, że jest to wyjście ostateczne.[...]

Oryginalne wydanie, z którego pochodzi ten fragment ma datę wydania: 1997, od tamtego czasu minęło osiem lat i jest to połowa historii World Wide Web.
Niestety wszystkie wady omawianej tu sztuczki nadal są aktualne. Na szczęście są już dostępne metody dzięki, którym nie jest już potrzebna.

Ramki

Ramki weszły do specyfikacji HTML dość wcześnie i od samego początku wzbudzają wiele kontrowersji. Z pozoru są doskonałym narzędziem do tworzenia nawigazcji witryny, prostej wymiany dokumentów przy zachowaniu tego samego menu.
Jednak jest wiele powodów by unikać ich stosowania:

Moim zdaniem nie ma żadnego powodu by stosować je jako podstawę funkcjonowania całej witryny, sprawdzają się nieźle np. przy prezentacjach katalogowych a znacznik <iframe> jest doskonały jeśli chcemy jakiś fragment strony załadować z zewnątrz bez użycia skryptów server-side.
Ale w samej technologii ramek wady przeważają nad zaletami. Oczywiście można zbudować całą witrynę w ramkach w sposób poprawny, tak by nie sprawiała problemów ani dla wyszukiwarek, ani dla użytkowników i do tego spełniałaby wymogi dostępności, ale z powodu ilości pracy jakiej to wymaga nie ma to sensu. Lepiej zastosować jakąś technologię server-side lub zalecane przez W3C techniki CSS.
Więcej na ten temat:

Flash

Macromedia stworzyła niesamowite narzędzie do tworzenia prezentacji, spełnia wszystkie najbardziej nawet wyszukane marzenia projektantów. Możliwe jest wszystko, także dźwięk, animacja i wyrafinowane ścieżki interakcji. Dokładne graficzne projektowanie bez zwracania uwagi na zawsze kłopotliwe dla grafików języki znacznikowe - operowanie bezpośrednio w oknie edytora, z linią czasu, możliwość importu dowolnych plików dźwiękowych i graficznych. Dowolne komponowanie tych wszystkich wodotrysków i w efekcie wyprodukowanie bardzo małego pliku wynikowego.
Jeśli dodać do tego fakt, że do odtworzenia tego w przeglądarce wystarczy mała wtyczka - czy można się dziwić zachwytom nad tą techniką?

Co jakiś czas słyszę, że "flash jest przyszłością WWW"
Jednak moim zdaniem flash jest niesamowitym narzędziem do tworzenia prezentacji, filmów, gier itp., ale na WWW jest tylko śmieciem, tak samo jak np. HTML jest śmieciem w mailu. Każde narzędzie ma swój ograniczony obszar zastosowań - flash również.

Przykładowe wady:

Oferta na WWW jest zbyt duża i efektownie wyglądające strony są tylko jedną z atrakcji. Użytkownik jest zainteresowany głównie zawartością i jak najszybszym jej otrzymaniem w funkcjonalnej postaci. To ma ładnie wyglądać, ale jeśli wygląd jest okupiony czekaniem na załadowanie się pliku (teraz przestań czytać i wyobrażając naprawdę ładnie wygladający preloading przewijający liczby od 1% i dopiero jak dojdzie do 100% czytaj dalej) a potem (chwileczkę... czy aby na pewno to zrobiłeś?) wpuszczeniem w tunel linearnej nawigacji i spowolnionego działania przeglądarki to jasne się staje dlaczego jest to tak rzadko stosowana technika i dlaczego to nigdy nie będzie "przyszłością WWW".
Co więcej, ze względu na reklamy we flashu użytkownik znacznie zyskuje na szybkości nawigacji całkowicie wyłączając wtyczkę flasha (w Operze F12 i odznaczenie Enable plug-ins, a w Firefoksie np. Flashblock).

dla kogo normy

Często można się spotkać z lekceważeniem norm, a w szczególności tych ustanowionych przez W3C w odniesieniu do stron internetowych. Postawa taka wynika z dominacji MSIE - skoro strona działa w najpopularniejszej przeglądarce to po co sobie zawracać głowę innymi programami?
Istnieje ku temu kilka powodów:

podsumowanie

Czym jest HTML? Z pozoru odpowiedź na to pytanie jest prosta: HyperText Markup Language - Język Znaczników Hipertekstowych. Historycznie rzecz biorąc wywodzi się z SGML, języka powstałego w CERN dla potrzeb dokumentacji naukowej. Odziedziczył po nim przede wszystkim samą ideę dokumentu hipertekstowego pozbywając się niepotrzebnej w popularnych zastosowaniach komplikacji, maksymalnie uproszczony z niewielką ilością reguł zapewnił powstającemu interfejsowi wizualnemu internetu: WWW podstawową funkcjonalność.
Jego późniejszy rozwój był wypadkową wciąż rosnących potrzeb i oczekiwań użytkowników , nowych idei, a także zażartej walki pomiędzy Microsoftem a Netscape o narzucenie własnego standardu (z niepasującymi do żadnej przeglądarki ustaleniami W3C w tle).

To czym był naprawde HTML przestawało się liczyć - istotne było to czego można przy jego pomocy dokonać, do mistrzostwa doprowadzono sztuczki i manipulacje. Ale kiedy wytrych jest normą drzwi przestają pełnić swoją funkcję. Materia zbudowana ze sztuczek i obejśc nie zadowalała nikogo, coraz powszechniejsze stawało się narzekanie na HTML i coraz większe były oczekiwania. Ale z zasady takie oczekiwania nie mogły zostać spełnione.
Dlaczego?

Tu pora powrócić do początkowego pytania. Otóz czym jest HTML?

Jest to po prostu ni mniej ni więcej język opisu struktury dokumentu. Samej struktury, nie wyglądu.
Przypomina o tym Jarosław Rafa w artykule "Odkręcanie śruby nożem". Takim właśnie użyciem niewłaściwego narzędzia jest stosowanie HTML-u do zarządzania wyglądem strony www. HTML nie powstał w tym celu i sprawdza się w tej roli źle. Doskonale opisuje strukturę, zapewnia hiperłacza i ma prostą budowę, łatwą do nauki i podglądu. Ma wiele zalet, ale nie jest narzędziem typograficznym.
Jego rozwój był efektem coraz większych oczekiwań wobec wyglądu stron WWW oraz przełamywania - często za wszelką cenę - ograniczeń w spełnianiu tych oczekiwań. W tej prowizorce dokonano cudów.
Nie można było iść tą droga bez końca, przełom nastąpił wraz ustaleniem standardu HTML 4.0 - pojawiła się wtedy idea DHTML - czyli Dynamicznego HTML, który składał się z kilku elementów: przed wszystkim z HTML 4.0, kaskadowych arkuszy stylów (CSS), języka skryptowego oraz DOM (Document Object Mode), który spinał to wszystko w jedna całość.
Taki podział był praktycznym zastosowaniem zasady właściwe narzedzie do właściwego celu
Pułapką było wywodzący się z tradycji DTP dogmat o konieczności absolutnej kontroli nad wyglądem i to identycznym we wszystkich przeglądarkach. Jest to nie tylko bardzo trudne i kłopotliwe - a często nawet niemożliwe - do realizacji. Przede wszystkim jest niepotrzebne.

World Wide Web to dynamiczne medium, w przeciwieństwie do tradycyjnej typografii, gdzie dostosowywano layout do określonej wielkości papierowej strony tutaj nie da się przewidzieć jakiego oprogramowania i sprzętu będzie używał internauta. Czy będzie miał stałe łącze, 19-calowy monitor, PDA, czytnik Braila, 14 calowy terminal z ograniczoną ilością kolorów i bez myszy; czy jego przeglądarką będzie Safari (Mac), Koqueror (KDE), przestarzały NN4.x a może najnowsza Mozilla. Zgodność bardziej ze standardami niż z konkretną platformą czyni internet bardziej otwartym, a na tym skorzystają wszyscy.

odnośniki:

zgodność ze standardami

stopka

[ redesign ] || [ na górę strony ]


©2002-2005 homepage
 
_100px
_200px
_300px
_400px
_500px
_600px
_700px
_800px
_900px
_1000px
_1100px
_1100px
_1200px
_1300px
_1400px
_1500px
_1600px
_1700px
_1800px
_1900px
_2000px
_2100px
_2200px
_2300px
_2400px
_2500px
_2600px
_2700px
_2800px
_2900px
_3000px
_3100px
_3200px
_3300px
_3400px
_3500px
_3600px
_3700px
_3800px
_3900px
_4000px
_4100px
_4200px
_4300px
_4400px
_4500px
_4600px
_4700px
_4800px
_4900px
_5000px
_5100px
_5200px
_5300px
_5400px
_5500px
_5600px
_5700px
_5800px
_5900px
_6000px
_6100px
_6200px
_6300px
_6400px
_6500px
_6600px
_6700px
_6800px
_6900px
_7000px
_7100px
_7200px
_7300px
_7400px
_7500px
_7600px
_7700px
_7800px
_7900px
_8000px
_8100px
_8200px
_8300px
_8400px
_8500px
_8600px
_8700px
_8800px
_8900px
_9000px
_9100px
_9200px
_9300px
_9400px
_9500px
_9600px
_9700px
_9800px
_9900px