Strony internetowe nieustannie przeszukiwane są przez boty, między innymi te których głównym zadaniem jest indeksowanie odwiedzanych witryn. Ponieważ twórcy stron na ogół nie chcą, aby do indeksów wyszukiwarek trafiały wszystkie możliwe zasoby znajdujące się na ich serwerach, powstał mechanizm o nazwie Robots Exclusion Protocol. Pozwala on wykluczyć wybrane podstrony, a jednym z jego składników jest plik robots.txt, zawierający informacje przeznaczone dla robotów indeksujących.

Humans.txt

Roboty generują sporo ruchu w sieci, ale przecież zasadniczo internet tworzony jest przez ludzi i dla ludzi. Ta myśl zainspirowała pomysłodawców pliku humans.txt, którzy swoją ideę przedstawili na stronie HumansTXT.org. Zachęcają oni autorów stron do umieszczania na nich dokumentu z informacjami o ludziach, którzy stoją za daną witryną i jej zbudowaniem. Analogicznie jak w przypadku robots.txt, nie trzeba nigdzie umieszczać linku do humans.txt – osoba, która będzie chciała dowiedzieć się więcej o twórcach strony sama sprawdzi ten adres, wpisując go bezpośrednio w pasku adresu.

Humans.txt - informacje dla ludzi, nie dla robotów

Pomysł wydaje się ciekawy, ponieważ pozwala na udostępnianie dodatkowych informacji w sposób, który nie wpływa na wygląd witryny ani na jej treść. Właściciele stron najczęściej nie są skłonni, aby gdziekolwiek oznaczać autorstwo osób odpowiedzialnych za aspekty techniczne. W zakładki „O nas” raczej nie dowiemy się kto był głównym developerem serwisu, a kto zajmował się implementacją frontendu. Humans.txt stanowi więc nieinwazyjną metodę zamieszczania tego typu danych.

W wielkim świecie

A jak jest w realizacją tej koncepcji? Czy wiele stron zawiera taki plik? Okazuje się, że humans.txt nie cieszy się (jeszcze?) zbyt dużą popularnością, aczkolwiek nawet kilku dużych graczy zamieściło ten plik w swoich domenach:

Nie ma jednego słusznego formatu humans.txt. Niektórzy wrzucają tam bardziej szczegółowe informacje, inni tylko ogólne podziękowania. Sami pomysłodawcy proponują posługiwanie się zaproponowanym przez nich standardem, dostępnym na http://humanstxt.org/humans.txt (a jakżeby inaczej).

Na polskim podwórku

Sprawdziłem też, czy opisywany sposób przekazywania informacji o autorach witryn, zagościł i w polskim internecie. Niestety wygląda na to, że wypadamy tu znacznie gorzej niż światowa czołówka. Zaglądnąłem na całkiem sporo stron plasujących się wysoko w rankingach popularności polskojęzycznej sieci, jak również skorzystałem z zawężonego wyszukiwania zapytaniem allinurl:humans.txt site:.pl – rezultaty to raczej niszowe witryny (takie jak np. ta :D), a ich liczba nie jest imponująca. Z „poważniejszych” adresów wymienić można:

Podsumowanie

Internet jest dla ludzi, nie dla robotów

Jeśli informacja o twórcach odwiedzanych z witryn jest tym, co zdarza Wam się poszukiwać, polecam skorzystanie z wtyczek do przeglądarek, które w przyjazny sposób informują o obecności takiego pliku i pozwalają wyświetlić jego treść jedny kliknięciem. Przykłady takich wtyczek to Humans.txt WebExtension (w wersji dla Chrome oraz Firefoxa) oraz Robots vs Humans.

Jeżeli zaś jesteście twórcami stron internetowych, zachęcam do zastanowienia się nad zamieszczeniem humans.txt w tworzonych witrynach, tym samym dorzucając swoją cegiełkę do pomysłu, dzięki któremu możemy zniwelować internetową przewagę robotów nad ludźmi.

Linki