2007-10-11: Wywiad ze współtwórcą World Wide Web, Robertem Cailliau
Nazwisko Robert Cailliau może nie brzmieć znajomo dla większości czytelników, lecz za sprawą jego odkrycia można na przykład przeczytać ten artykuł. Dr Cailliau wraz ze swoim kolegą, sir Timem Bernersem-Lee, wynalazł World Wide Web, powodując, że Internet stał się na tyle przystępny, że mógł zmienić się z akademickiego narzędzia w medium masowej komunikacji. W styczniu dr Cailliau zrezygnował z pracy w CERN-ie, europejskim ośrodku badawczym, gdzie powstało WWW.
Wikinews zaproponowało dr Cailliau wirtualne piwo z Belgii (skąd pochodzi naukowiec) i przeprowadziło e-mailowy wywiad z nim na temat historii i przyszłości WWW oraz jego życia i pracy.
Wstęp
[edytuj | edytuj kod]Na początek chcielibyśmy zaproponować panu kufel piwa na tarasie, lecz ponieważ jest to wywiad e-mailowy, ograniczymy się do wirtualnego piwa.
Robert Cailliau: Kiedyś (na drugiej międzynarodowej konferencji WWW w Chicago) powiedziałem, że nie ma czegoś takiego, jak wirtualne piwo: ludzie wciąż chcą usiąść razem przy stole. W każdym razie, zaczynajmy.
Historia WWW
[edytuj | edytuj kod]Dlaczego WWW powstało w laboratorium fizyki jądrowej, takim, jak CERN? Jakim potrzebom środowiska naukowego służyło w swoich początkach? Czy utworzenie WWW było sprawą znalezienia się kogoś z odpowiednią wiedzą o informatyce we właściwym czasie i miejscu/okolicznościach?
Istniało kilka systemów hipertekstu: Microcosm, Hyper-G, Gopher a nawet Xanadu. Każdy eksperymentował. Były nawet dwa niezależne przedsięwzięcia w ramach CERN-u (Tima i moje)! CERN to infrastruktura używana przez fizyków ze wszystkich rodzajów uniwersytetów, którzy po eksperymentach w CERN-ie wracają do swoich instytucji. Pojedynczy eksperyment skupia wielu fizyków z uniwersytetów rozsianych po całym świecie. Oczywiście pozostają oni w kontakcie: byli użytkownikami sieci i komputerów od długiego czasu.
Z tego powodu nie jest zaskakujące, że szukaliśmy systemu, który pozwoliłby takiej grupie konsultować między sobą dokumenty bez konieczności posiadania informacji o tym, gdzie przebywał autor oraz jakie z różnych komputerów, systemów operacyjnych, kont i haseł były potrzebne. Istniała potrzeba automatycznej biblioteki.
Te dwie próby w CERN-ie były osobistymi inicjatywami. Kiedy dowiedziałem się, że Tim chciał użyć Internetu i zmierzał w kierunku implementacji, natychmiast dołączyłem do niego. Jednak przez dłuższy czas projekt był postrzegany z pewną obawą przez kadrę CERN-u.
Częściowo był to wynik pojawienia się właściwych osób we właściwym czasie, częściowo przypadku, ale częściowo prawdziwego zapotrzebowania. A wszystko miało miejsce pod życzliwym okiem Mike'a Sendalla, szefa Tima.
Jakie wyzwania napotkaliście początkowo wewnątrz i poza CERN-em w trakcie rozwijania tej nowatorskiej technologii?
Kilka czynników było przeciw nam. Po pierwsze, era informatycznych rozwiązań domowej roboty minęła. Tendencja była taka, by kupować produkowane oprogramowanie.
Po drugie, cała przyszłość fizyki wysokich energii była niepewna: były problemy z SSC (Superconducting Super Collider - red.) w Stanach Zjednoczonych i z planów LHC wynikało, że coś musi odpaść. SSC został ostatecznie porzucony w 1993, ale przez dłuższy okres czasu fizycy przejmowali się innymi rzeczami niż hipertekst.
Proszę pana, mam nadzieję, że nie spodziewa się pan, że France Telecom będzie wspierał Internet? | ||
—przedstawiciel France Telecom do Roberta Cailliau |
Po trzecie, zawsze było problemem uzasadnianie projektu, który dotyczył tylko komputerów, w instytucie, którego misją jest zdecydowanie czysta fizyka.
Poza CERN-em była pustynia strasznie pogmatwanych sieci. Uniwersytety chciały TCP/IP, ale firmy telekomunikacyjne krajów europejskich były wciąż państwowymi monopolami i sprzeciwiały się, ponieważ używały innych schematów płatności.
Pamiętam śmieszną rozmowę między osobą z Deutsche Telekom i grupą naukowców akademickich na pewnej konferencji: naukowcy narzekali na koszty i wolne łącza. Człowiek z firmy telekomunikacyjnej odpowiedział: "Czego chcecie? Dajemy wam najlepsze linie X.25 a wy uruchamiacie na nim TCP/IP!". Ale nie mieliśmy wyboru: TCP/IP był jedynym protokołem, którego można było użyć dla wszystkich uniwersytetów na świecie.
Przy innej okazji spytałem się reprezentanta France Telecom o jego adres e-mail. Podał mi adres X.400 a ja zapytałem o adres internetowy. Podniósł brwi i powiedział: "Monsieur, vous ne pensez quand-même pas que France Telecom va soutenir l'internet?" ("Proszę pana, mam nadzieję, że nie spodziewa się pan, że France Telecom będzie wspierał Internet?"). A wszystko to miało miejsce, gdy sieć była już sukcesem, co prawda tylko w świecie akademickim.
Pierwsze przeglądarki były jednocześnie edytorami stron, prawda? Jakiej przeglądarki używa pan obecnie? Czy umożliwia przeglądanie w kartach? Jak wypada w porównaniu do pierwszych przeglądarek, z którymi pan pracował?
To prawda, przeglądarka w systemie NeXT była jednocześnie edytorem, choć był on ograniczony do stron na lokalnym serwerze.
Aktualna złożoność technologii XHTML, AJAX, CSS jak myślę wyklucza efektywne połączenie funkcji edycji i przeglądania w pojedynczej aplikacji.
Coś, czego mi brakuje, to funkcje "następny-poprzedni" w przeglądarce NeXT. Obecne przeglądarki pozwalają tylko na podążanie za linkiem i następnie na poruszania się do przodu i wstecz w ścieżce, którą się wybrało ("dalej" i "wstecz"). Przeglądarka NeXT miała dodatkową funkcję podążania za następnym linkiem na poprzedniej stronie ("następny"). To umożliwiało mi tworzenie strony, która była listą stron, na które miałem zajrzeć, i następnie przejście po tej "ścieżce" jednym kliknięciem na stronę. Istniał prosty sposób na utworzenie ścieżki i zapisanie jej, niezależnie od docelowych stron i serwerów. Rodzaj "streszczenia".
Wiem, że jest to teraz możliwe z JavaScriptem, ale nie jest to łatwe i nie można przekazać takiej strony każdemu w łatwy sposób.
Mieliśmy też grafikę wektorową. Obawiam się, że SVG zawiódł, przynajmniej nie widzę żadnych stron, które używałyby go na dużą skalę.
Arkusze stylów również były włączane, ale niezbyt zaawansowane, choć sama idea już wtedy istniała. CSS przebiło się do użycia.
Obecnie używam głównie Safari, ponieważ najlepiej używa CSS i przede wszystkim z powodu typografii. Nawet Firefox może się uczyć od typografii Safari. Dlaczego tak mało programów poprawnie obsługuje tekst? Dlaczego typografia na ekranie jest taka kiepska?
Przeglądanie w kartach jest udogodnieniem dla tych, którzy nie potrafią radzić sobie z wieloma osobnymi oknami. Ja tego nie potrzebuję. Pierwsze przeglądarki zawsze otwierały pojedynczą stronę w nowym oknie. Lecz Windows nie używa okien: preferuje pełny ekran. Mosaic był pierwszą przeglądarką, która używała pojedynczego okna. Po co robić coś prosto, skoro można to skomplikować?
Wyszukiwarki uczyniły masę danych w WWW łatwymi do przeszukiwania. Jakie były pana początkowe przewidywania dotyczące indeksowania danych?
Źe nie będzie go w ogóle! Albo będzie robione ręcznie. Mieliśmy VL, Wirtualną Bibliotekę (Virtual Library), ideę indeksowania i klasyfikowania stron według tematu przez pracujących ochotniczo specjalistów w poszczególnych dziedzinach. Rodzaj Wikipedii, ale tylko z linkami: zawartość była dystrybuowana poza VL. VL odniosła pewien sukces, ale wymagała mnóstwo pracy. Pojawienie się wyszukiwarek uczyniło VL nieistotną.
Sieć podzieliła się na serwery. Początkowo "atomem" w sieci była strona, teraz jest to serwer. Serwery linkują bardzo rzadko do innych serwerów i wtedy zazwyczaj ostrzegają cię: "Teraz opuścisz naszą stronę!". W takiej strukturze potrzebujesz wyszukiwarki, w przeciwnym wypadku nie znajdziesz niczego. Ale wyszukiwarki nie pozwalają na znalezienie swojej drogi w sieci: dają ci odnośnik, nie ścieżkę, by dotrzeć do celu.
Pierwsza wyszukiwarka była stworzona przez Centre Universitaire d'Informatique na Uniwersytecie w Genewie.
Przewidywałem, że wyszukiwarki nie dadzą sobie rady na dłuższą metę. Być może istnienie Google jest tylko znakiem, że wciąż niewiele jest dostępne w sieci.
Był pan przy początkach WWW razem z Timem Bernersem-Lee; za jakie aspekty jest pan konkretnie odpowiedzialny? Przekonał pan CERN, by przekazać podstawową bibliotekę z kodem do domeny publicznej?
W roku 1990 już od 10 lat nie programowałem i zajmowałem się zarządzaniem. Jestem też o 8 lat starszy niż Tim, który również nie był już młodym programistą. Było oczywiste, że nie jestem w stanie rywalizować z dwudziestoletnim hakerem Uniksa i wkrótce przestałem wtrącać się do pisania kodu w C. W każdym razie, znam tylko jeden język programowania gorszy niż C i jest to JavaScript.
Miałem wpływ na kształt WWW i kierunki rozwoju, ale głównie zajmowałem się zdobywaniem środków potrzebnych od kontynuowania projektu. Miałem budżet (skromny), więc załatwiłem komputery, biura i przede wszystkim ludzi: młodych programistów, którzy mogli spędzić rok pracując w CERN-ie w ramach Technical Student Programme. Aby wszystko to zdobyć musiałem często przekonywać do projektu kadrę zarządzającą.
Rozumiałem też, że CERN, jako laboratorium fizyczne, nigdy nie poświęciłby oddziału na rzecz sieci. Z tego powodu zacząłem kontaktować się z prawdziwymi instytutami informatycznymi, jak INRIA (Institut national de recherche en informatique et en automatique - red.) i FhG, oraz skontaktowałem się z Komisją Europejską. W tym ostatnim na szczęście zostałem wsparty przez Mike'a Sendalla. Mike, który był postrzegany jako neutralny przez kadrę zarządzającą CERN-u, zrobił więcej niż ktokolwiek inny, by pomóc w rozwoju WWW wewnątrz CERN-u.
Od strony technicznej nie zawsze istniało najlepsze zrozumienie między mną i resztą zespołu. Na przykład, byłem przekonany, że powinniśmy zbudować język programowania, ale reszta twórców, przede wszystkim Tim, była mocno przeciwna. Język miał zostać całkowicie deklaratywny. Być może, ale ostatecznym wynikiem jest to, że próżnia programistyczna wypełniła się najgorszą rzeczą w historii informatyki: JavaScriptem.
Pamiętam też duży opór przeciwko PostScriptowi, ale co widzimy teraz? Wszędzie PDF. Na szczęście PDF to otwarty standard i jest w miarę elegancki, ale mógł stać się znacznie gorszy. SVG nie przebił się.
Tim, który miał większe doświadczenie ze światem Internetu, przekonał mnie, że WWW może przetrwać tylko wtedy, jeśli cały kod będzie swobodnie dostępny dla każdego, kto chciałby przy nim majsterkować. W latach 1992-1993 pracowałem cierpliwie przez jakieś 6 miesięcy z działem prawnym CERN-u, by przygotować dokument, który przekazywał by kod źródłowy do domeny publicznej. Wynikiem był dokument podpisany 30 kwietnia 1993, który dał światu technologię WWW.
Podczas tego samego okresu dostrzegłem też, że WWW jako technologia ma wiele aspektów. Tim narysował coś, co nazywał "metro": diagram związków między istniejącymi systemami (FTP, SMTP, HTTP) w formie stylizowanej mapy przypominającej londyńskie metro. To uświadomiło mi, że musieliśmy radzić sobie ze znacznie poważniejszą informatyką, niż nasz mały zespół czterech czy pięciu osób mógłby intelektualnie ogarnąć. Z tego powodu zaczęła u mnie dojrzewać idea międzynarodowej konferencji o technologiach WWW. Tim nie był przekonany, lecz ja zaangażowałem się w to.
NCSA (National Center for Supercomputer Applications w Stanach Zjednoczonych) właśnie wypuściło Mosaic, najpierw dla systemów X-Window/Unix, potem dla Maców i PC. Ich grupa nie tylko miała więcej ludzi, ale ich lider, Joseph Hardin, był socjologiem w moim wieku. Podejrzewałem, że myślał w tym samym kierunku i miałem rację: kiedy ogłosiłem wezwanie do nadsyłania tematów referatów na pierwszą konferencję WWW w grudniu 1993, zrobiłem to tylko dzień przed tym, jak NCSA wykonało to samo. Był piątek a w sobotę Hardin zadzwonił do mnie do domu, by przedyskutować sprawę. Na szczęście nasze relacje były dobre i był też bardzo fair, biorąc ostatecznie udział w mojej konferencji. Lecz nasz zespół był bardzo słaby w tamtych czasach: NCSA odniosło duży sukces z Mosaikiem i mogli łatwo użyć swojej wagi do wymazania nas z mapy.
Był to też czas zrozumienia, jak niewykształcona jest tutaj nasza idea Europy. Wiemy, że musimy żyć razem w tym złączeniu półwyspów, ale kiedy mamy popchnąć coś w tym samym kierunku, jest to politycznie raczej trudne.
Ostatecznie przez dwa lata pracowałem dość ciężko, by utworzyć WWW Consortium. Nawet potem zajmowało to dużo moich wysiłków i czasu.
Jest kilka śmiesznych anegdotek o początkach World Wide Web. Właśnie zaoferowaliśmy panu wirtualne piwo, ale idea WWW również zaczęła się od piwa, w tym przypadku od (prawdziwego) piwa z Timem Bernersem Lee, prawda? I to jest powodem, dla którego oryginalne logo WWW jest zielone? Dlaczego WWW nie jest nazywane world-wide web, z dywizem? Czy są inne anegdoty, którymi chciałby się pan podzielić z naszymi czytelnikami?
Ta lista nie ma końca.
Na drugiej konferencji, przeprowadzonej przez NCSA w Chicago, ktoś zapytał, czy nie byłoby lepiej, by używać sieci do konferencji zamiast podróżować do odległych miejsc. Impulsywnie odpowiedziałem, przed 1500 programistami na widowni, że nie było czegoś takiego, jak wirtualne piwo i z tego powodu woleliśmy spotykać się osobiście. Był rok 1994.
W roku 1990, miesiące zanim istniał jakiś kod, Tim i ja chcieliśmy znaleźć dobrą nazwę dla projektu. Czasami po ciężkim dniu pracy w ciepłych biurach piliśmy piwo na tarasie kafeterii CERN-u przed pójściem do domu. Przy jednej z takich okazji Tim zaproponował "World-Wide Web". Wolałem coś krótszego, ale znalezienie chwytliwej nazwy nie jest łatwe. Zgodziłem się, by użyć określenia WWW w nowym dokumencie, który miał pójść do zarządu, i "znaleźć lepszą nazwę później". WWW zostało: podsumowywało dobrze to, czym było.
Zgodziłem się, by użyć określenia WWW w nowym dokumencie, który miał pójść do zarządu, i "znaleźć lepszą nazwę później". |
Jako synesteta widzę znaki w kolorach i odbieram W jako zielone. Lubię to. Tak więc zostało WWW. Tak też było z logiem, którego używaliśmy na samym początkiem. Było złożone z trzech "w": białego, jasnozielonego i ciemnozielonego.
I tak, dywiz był tam przez długi czas. Ale ponieważ wprawiał w zakłopotanie ludzi, którzy nie są dobrzy z gramatyki, Tim ostatecznie uciął sprawę stwierdzając, że ma prawo decydować, jak ta nazwa będzie pisana, skoro ją wymyślił: bez dywizu.
Kilka anegdotek jest mniej śmiesznych: pewnego razu mogłem sprawić, by Alexander Totic z NCSA przeszedł do CERN-u do naszego zespołu. Było to prawie załatwione, kiedy okazało się, że Alex miał serbski paszport a CERN w tym czasie nie akceptował Serbów.
Najnowsza i bardzo pozytywna anegdota pochodzi z października 2006: miałem otwierającą mowę na australijskiej konferencji o e-nauczaniu i Internecie w edukacji. Zacząłem mówiąc, że nie wiem nic o edukacji, ale i tak wygłoszę moje przemówienie. W następnej mowie Jean Johnson zaprezentowała NotSchool (http://www.notschool.net) i wspomniała, że projekt "WWW dla szkół" Komisji Europejskiej był bardzo istotny dla jej pracy.
Później zapytałem się jej, czy wspomniała o projekcie, który zakończył się na konferencji w Dublinie w roku 1995. Powiedziała, że tak i spytała, czy byłem tam. Wtedy musiałem przyznać, że sam zapoczątkowałem ten projekt i mówiłem do widowni na kończącej sesji dublińskiej konferencji i z tego powodu być może wiem trochę o Internecie w edukacji. Było to miłe, wiedzieć, że nawet małe inicjatywy są dość ważne.
Choć Tim Berners-Lee nie był do tego entuzjastycznie nastawiony, zwołał pan pierwszą międzynarodową konferencję WWW. Jak ta konferencja ukształtowała WWW?
Te konferencje cały czas działają, w roku 2007 jedna z nich odbyła się w Banff. Są okazją do spotkania i ciężkiej pracy przez kilka dni nad wymianą pomysłów. Prezentacje są publikowane w znanych czasopismach akademickich. To zachęca ludzi do dobrego przygotowania i zaprezentowania materiału kolegom. Wiele technologii sieciowych powstało na jednej z konferencji (proxy, VRML…). Grupy robocze powstają właśnie tam. Ponieważ wielu chce tam pojechać, ale może to zrobić tylko ze wsparciem swojego instytutu lub firmy, często oznacza to, że muszą zaprezentować referat. Niejasne idee są wtedy konsolidowane i zmieniane na kod komputerowy, co inaczej nie mogłoby mieć miejsca.
Dodatkowo komitet konferencji przekonał Web Consortium, by organizować jego coroczne spotkanie w połączeniu z konferencją. Nie jestem już z tym związany, ale podczas lat 1996-2004 ta synergia była obecna i bieg konferencji był poświęcony pracom Konsorcjum. Z tego też powodu Tim był obecny każdego roku.
Zawsze widziałem Konsorcjum jako "Kościół" a Tima jako "papieża". W Konsorcjum istnieje zbiór reguł dotyczących podejmowania decyzji, których każdy musi przestrzegać. Ma tam swój udział przemysł i czasami polityka.
Jednakże tak długo, jak byłem członkiem komitetu, widziałem konferencję jako "państwo laików"; każdy miał swobodę wypowiedzi i mógł proponować najdziwniejsze rzeczy. Preferuję kompletne oddzielenie Kościoła i państwa.
To nie znaczy oczywiście, że nie chcemy ścisłej współpracy między Konsorcjum i komitetem konferencji: zawsze delegat z Konsorcjum był członkiem komitetu, choć nie było to wymagane. Chcieliśmy, by tu i tu wiodło się pomyślnie.
W związku z tym, słyszeliśmy, że WWW miało początkowo działać na zasadzie mikropłatności. Kto miał taki pomysł i dlaczego myśli pan, że nigdy nie doszło do jego realizacji?
Nigdy nie było podstawowym celem, by używać mikropłatności. Jednakże jako osobę otwierającą pierwszą konferencję (maj 1994) zaprosiłem Davida Schauma, eksperta od cyfrowych pieniędzy. Byłem wtedy przekonany do potrzeby cyfrowych pieniędzy: płatności o gwarantowanej wartości, lecz bez pochodzenia, które możnaby wyśledzić. Wciąż nie robimy niczego podobnego do tego. Dla mnie znacznie ważniejszym od niemożności śledzenia powodem, by wprowadzić cyfrowe pieniądze, jest wolny rynek informacji.
Idee cyfrowych płatności były kierowane do sprzedaży towarów i płatności abonamentowych. Dla mnie ważniejsze jest złamanie wypaczonego trójkąta autor-czytelnik-firma reklamowa.
Początkowo byłem często zupełnie niezrozumiany. Były nawet artykuły w czasopismach, które przez niezrozumienie powodowały fale wrogich listów.
Zasada rynku informacyjnego z mikropłatnościami jest prosta i nie jest nowa (francuski Minitel miał ją od wczesnych lat 80.).
Z euro być może nadszedł czas na eksperyment z mikropłatnościami. |
Są obecnie trzy sposoby publikacji informacji w sieci:
- za darmo (ale kto opłaci mój czas?)
- przez abonament z nazwą i hasłem ważnymi przez określony okres czasu
- przez zabieganie o reklamodawców, którzy umieszczą reklamy na stronie
Sposób pierwszy jest możliwy tylko wtedy, gdy ma się inne źródła dochodów.
Sposób drugi jest często używany, ale odstrasza ludzi, ze względu na wysoki poziom abonamentu. To odgradza użytkowników od wielu stron, np. gazet. Kwota abonamentu jest za wysoka.
Na przykład: czasami chcę sprawdzić słowo w Oxford English Dictionary, lecz nie tak często, że uważałbym, by byłoby to warte mojej chwili na opłacenie abonamentu. Z tego powodu nie mogę w ogóle użyć tego słownika.
Sposób 3 jest najczęściej używany, choć nie jest zbyt przyjemny dla użytkowników. Naprzykład, Via Michelin, świetny serwis, ostatnio stał się bardzo denerwujący, ponieważ ma tak dużo reklam, również animowanych, więc przez te wszystkie ruszające się rzeczy jest ciężko skoncentrować się na tym, co chcę tam robić. Reklamy, zwłaszcza różne animowane, są zmorą na użytecznych stronach.
Z mikropłatnościami i cyfrowymi pieniędzmi mógłbym płacić Oxfordowi małą sumę za każdym razem, gdy korzystam ze słownika, ale bez płacenia całego abonamentu.
Dobra implementacja mikropłatności musi też dawać komfort: nie powinienem się logować lub udzielać zgody, mój komputer ma płacić bez mojego udziału. Mówimy tu o sumach mniejszych niż eurocent.
I oczywiście mógłbym ustalić limity, mówiąc przeglądarce, by ostrzegła mnie, jeśli wydaję więcej niż 10 euro dziennie lub kiedy strona pobiera więcej niż centa za stronę itp.
W ten sposób mógłbym czytać wiadomości w kilku dziennikach bez konieczności płacenia pełnego abonamentu w każdym i logowania się. Strony mogłyby oczywiście, jeśli by chciały, rozróżniać płacenie za wstęp, po którym nie ma reklam i wszystko pracuje szybciej, i wejścia, które jest darmowe, ale pełne reklam.
W skrócie, istnieje prawdziwy rynek na informacje, bezpośrednio między sprzedającym a klientem. Nic nie jest obowiązkowe, lecz znacznie więcej jest możliwe. Z euro być może nadszedł czas na eksperyment z mikropłatnościami.
WWW zostało wymyślone w Europie, ale rosło wykładniczo i w pewnym sensie wynalazek wybuchł wam w twarz; czy w jakimś momencie myślał pan, że WWW zostało przejęte przez Stany Zjednoczone?
WWW zostało przejęte przez tych, którzy coś w nie włożyli. Są ludzie, którzy nie prowadzą długich ideologicznych lub tak zwanych "intelektualnych" wywodów, ale wkładają tam zawartość. Nastawienie różni się znacznie między naszymi europejskimi małymi, zaściankowymi kulturami. Na przykład wszystkie francuskie firmy są dość źle obecne w sieci: jest tam mnóstwo estetycznego hałasu, ale nie można znaleźć informacji, których się szuka. Szwajcarskie strony, nawet te pisane po francusku, są znacznie bardziej bezpośrednie i czytelne.
Holendrzy robią strony lepiej niż Belgowie. Jest duża różnica między sektorem prywatnym i agencjami rządowymi. Strony rządu francuskiego są wzorem kompletności, przyjazności i użyteczności, będąc niemal całkowitym przeciwieństwem stron prywatnych przedsiębiorstw w tym samym państwie.
Nie prowadziłem badań tego fenomenu, ale wydaje się, że są dwa czynniki: stosunek do życia (protestancki/pragmatyczny/eksperymentujący/germański kontra katolicki/intelektualny/kartezjański/łaciński) i język.
Jest oczywiste, że więcej jest dostępne po angielsku niż, powiedzmy, po baskijsku. Lecz to nie powinno dziwić kogokolwiek. Ok, więc mamy problem z językami w Europie. To prowadzi do jednego z moich ulubionych tematów: języka jako technologii, lecz to jest rzecz na inny wywiad.
Jak bardzo WWW ewoluowało od lat 70? Jakie czynniki utrudniają dalszą ewolucję?
Prawdopodobnie macie na myśli lata 90., chyba, że chcecie rozmawiać o Internecie zamiast o WWW. Patrząc wstecz i na podstawie wielu rozmów z pionierami WWW i Internetu, myślę, że nie zmieniło się fundamentalnie.
Była pierwsza eksplozja usług internetowych w latach 70. (e-mail, chat, transfer plików, zdalne logowanie…), potem przerwa z niczym aż WWW przyciągnęła masy od roku 1995. Dwie wielkie fazy to: akademicki rozwój a następnie eksplozja w sferze publicznej.
Musimy pamiętać o dwóch niekompatybilnych modelach komunikacji: telefonii (brak gwarantowanego kontaktu, lecz gwarantowana przepustowość) i Internet (gwarantowany kontakt, lecz brak gwarancji przepustowości). Komutacja kanałów i komutacja pakietów. Moda dyktuje, że powinniśmy robić wszystko przez TCP/IP. Jest to w porządku, o ile nie ma potrzeby stałego kontaktu (e-mail, WWW, ściąganie), ale nigdy nie jest dobre, kiedy zapotrzebowanie jest ciągłe (audio, wideo, TV). Nie mówiąc już o telechirurgii. Czy chcielibyście być na stole operacyjnym wiedząc, że chirurg po drugiej stronie ma tylko TCP/IP między jego ręką i skalpelem? Chyba nie.
Są zastosowania, gdzie jest potrzeba gwarantowanego pasma przepustowości i nie jest to możliwe do osiągnięcia w klasycznym TCP/IP. Oczywiście, matematycy i geekowie sieciowi powiedzą, że nie ma żadnej różnicy, jeśli uczyni się przepustowość odpowiednio wysoką. To prawda, ale obawiam się, że zawsze można znaleźć zastosowanie, gdzie zapotrzebowanie na przepustowośc będzie na tyle wysokie, że te granice będą musiały być znowu przesunięte wyżej. Być może znajdziemy połączenie, gdzie WWW będzie użyte do zainicjalizowania kanału, by wziąć najlepsze rzeczy z obu podejść.
Którą część lub okres historii World Wide Web lubi pan najbardziej? Które czasy były najbardziej ekscytujące?
Co lubię? Wszystko po pierwszej konferencji. Była wtedy atmosfera euforii, której rzadko doświadczałem. A ponieważ wszystko to zacząłem sam, było to bardzo satysfakcjonujące.
Najbardziej ekscytujący był okres od końca roku 1991 do końca roku 1994. Był to wczesny okres, gdzie czuliśmy bardzo jasno, gdzie chcieliśmy iść, lecz musieliśmy zaszczepić tę wizję u innych. Trwało to do końca WWW w CERN-ie w grudniu 1994. Nie mogę przytoczyć tu całej historii, jest opowiedziana ze szczegółami w książce "How the Web was Born".
Jeśli mógłby pan wrócić się w czasie i zmienić jedną rzecz w początkach WWW, to co to by było?
Isambard Kingdom Brunel, jeden z największych inżynierów wszech czasów, napisał w roku 1944 w najgorętszym momencie manii kolejowej:
Oto cały świat oszalał na punkcie kolei. Jest mi naprawdę niedobrze, gdy słyszę przedstawiane propozycje. Chciałbym, by to się skończyło. Preferuję znacznie inżynierię niż prognozowanie, od którego staram się trzymać tak daleko, jak tylko mogę… Straszny pośpiech, w którym jestem zmuszony prowadzić mój biznes, jest bez wątpliwości dobrym przykładem sposobu, w jakim praca powinna być zrobiona… Chciałbym móc zasugerować plan, który zredukowałby mocno liczbę projektów; byłoby to idealnie w interesie moim i moich klientów, jeśli wszystkie prace kolejowe byłyby zatrzymane na kilka następnych lat.
Myślę często o tej refleksji: poszliśmy do przodu zdecydowanie zbyt szybko, wielu twórców pobiegło w zdecydowanie zbyt wiele różnych kierunkach bez myślenia zbyt wiele. Nie chcę być tu Kartezjuszem, ale byłoby znacznie lepiej, gdybyśmy mieli więcej czasu na przygotowanie naszych idei zamiast spuścić bestię z łańcucha.
Zwłaszcza geekowie w Stanach Zjednoczonych zachowywali się jak kowboje: najpierw strzelaj, potem myśl. Implementowano funkcje, które na pierwszy rzut oka wyglądały atrakcyjnie, ale okazały się niekompatybilne z resztą. Na przykład słynne ramki, których ciągle się nie pozbyliśmy. Ludzie nie zrozumieli zalet oddzielenia zawartości od prezentacji, co mieliśmy w pewnym sensie w systemie NeXT. Szczególnie odrzucili to graficy i cofnęli nas o jakieś pięć lat.
Jeśli wykonanoby staranne badanie, mogłoby ono pokazać, że straciliśmy znacznie więcej czasu i wysiłku na zarządzanie nadmiarem niż byśmy spędzili na bardziej przemyślanym i stopniowym rozwoju. Mam często wrażenie, że biegłem jak szalony, by uniknąć utonięcia w tsunami.
Przyszłość WWW
[edytuj | edytuj kod]Zauważyliśmy, że naukowcy w CERN-ie pracują obecnie nad gridami, głównie po to, by przetwarzać duże ilości danych z projektu Large Hadron Collider. Czy myśli pan, że obliczenia gridowe będą następną generacją WWW? Czy są czynniki, które ograniczają użycie obliczeń gridowych, na przykład praca na dużych dystansach?
Nie mam zbyt wiele do powiedzenia o obliczeniach gridowych. Pierwszym celem ARPANET-u i potem Internetu było użycie zasobów obliczeniowych na odległość. Obliczenia gridowe to rozszerzenie tego pomysłu. Nie wiem, czy zwykły użytkownik będzie używał obliczeń gridowych. Najprawdopodobniej nie. Zdaje mi się, że komputery osobiste mają się do gridów tak, jak szeregowe obliczenia do obliczeń równoległych. Są pożyteczne zastosowania obliczeń równoległych, ale nie sądzę, że mój drugi procesor jest zajęty, gdy to piszę. Obliczenia gridowe mogą być użyte za kurtyną w pewnych usługach, lecz uważam, że ciężko jest dostrzec, do czego człowiek surfujący po Internecie mógłby tego użyć. Jestem pewien, że Goggle wie co z tym zrobić. Tak więc zamknę się w tej kwestii.
Powiedział pan wcześniej, że nie przejmuje się pan zbytnio pomysłem Web 2.0, ponieważ było to coś, czego miał pan wizję od początku i co musiało nastąpić – to prawda? Jeśli nie, jaka jest pańska wizja sieci? Czy będzie prawdziwy renesans sieci?
Web 2.0 to coś, co naprawdę "istnieje", lecz nie jest to technologia. Jest to fenomen socjalny, który wymaga jednoczesnego użycia kilku technologii, by stworzyć tak zwane strony 2.0. Dostarczanie treści przez blogi i tym podobne jest "nowym" wydarzeniem, w którym biorą udział ludzie, często w bardzo oryginalny sposób. Wolne redagowanie zawartości sieci było jednym z początkowych celów: w sieci powinno być równie łatwo pisać, jak czytać. Ta cecha została utracona z powodu zbyt szybkiego rozwoju.
Wolne redagowanie zawartości sieci było jednym z początkowych celów: w sieci powinno być równie łatwo pisać, jak czytać. Ta cecha została utracona z powodu zbyt szybkiego rozwoju. |
Jestem znacznie bardziej zaniepokojony z powodu danych. Wszystkie moje dane są na moim domowym komputerze i regularnie robię ich kopie zapasowe. Nie mam nic ważnego na serwerze: żadnych e-maili, żadnych zdjęć, nagrań wideo lub czegokolwiek. Jednak jestem wyjątkiem: większość ludzi nigdy nie robi kopii zapasowych na swoich komputerach i tak naprawdę nie potrafi obsługiwać komputera. Używa tego urządzenia jako terminalu do Internetu.
Serwisy jak gmail, YouTube i w zasadzie każda strona mająca w nazwie coś z "My-", gdzie człowiek zostawia część siebie, zawracają nas do archaicznego modelu korzystania z komputera: centralny mainframe z dyskami, z którego korzysta się przez terminale, na których nie działają żadne lokalne aplikacje.
Ten trend zaczął mnie niepokoić najpierw w e-mailu. Ze względu na spam większość ISP przestała przekazywać maile i zaczęły się kłopoty z przesyłaniem e-maili w czasie podróży. Aby wysłać mail musisz znać adres lokalnego serwera SMTP. Ale który recepcjonista w hotelu powie ci coś takiego? Będzie patrzeć się na ciebie tępym wzrokiem, nie mogąc zrozumieć, że nie używasz web maila, to znaczy, nie trzymasz swoich wiadomości na serwerze.
Pieniądz jest wirtualny, jest liczbą w komputerze gdzieś w banku. Ufamy bankowi: nikt nie ma złotych monet w skarpetce pod materacem.
Ale pracowaliśmy nad bankowością przez kilka wieków. Gdy ostatnim razem mieliśmy wielki krach (załamanie w roku 1929), nie tylko duża liczba ludzi umarła z głodu, ale pomogło to w powstaniu najbardziej totalitarnego państwa, jakie kiedykolwiek widzieliśmy (Trzeciej Rzeszy). Od tych dni nauczyliśmy się wiele, z bólem i wieloma nieszczęściami.
Z tego powodu teraz myślimy, że możemy ufać bankom i ekonomistom w sprawie naszych pieniędzy. Przełom wyszedł od kontroli rządowych i konwencji międzynarodowych.
Z naszymi danymi jest teraz tak, jak z pieniędzmi dwa wieki temu: wszystko w rękach niekontrolowanych firm prywatnych, bez żadnej konstrukcji prawnej, nie mówiąc już o umowach międzynarodowych.
Lecz moje dane są częścią mnie. Chcę wiedzieć, jak moje dane są przechowywane, przez kogo, gdzie i z jakimi gwarancjami. Mogę stracić pieniądze, wtedy będę uprawiał ziemniaki w moim ogródku.
Mówicie o renesansie sieci. Piękne byłoby światło, które pozwoliłoby nam zobaczyć, że w erze informacji potrzebujemy zbudować nowe struktury socjalne, nowe formy tworzenia zaufania i potrzebujemy więcej przezroczystości w procesach w społeczeństwie.
Zasada stojąca za wiki takimi jak Wikipedia daje podobną funkcjonalność jak wczesne przeglądarki internetowe, które były jednocześnie edytorami stron. O ile ta analogia jest poprawna?
Jedna wielka różnica jest taka, być może, że wiki działają na serwerach, lecz mogę oczywiście umieścić wiki na moim komputerze domowym lub laptopie. Nie jest to prawdziwy WYSIWYG, lecz nie jest to tak ważne.
Czy widzi pan wiki jako żywotny model długoterminowy, czy też przewiduje pan, że powstanie coś innego? W kwestii wiki, czy odwołuje się pan do Wikipedii?
Często używam Wikipedii. Również dodaję coś tu i tam. To wielkie dzieło, na które patrzy się z wielką dozą zazdrości. W prawie wszystkich komentarzach dotyczących Wikipedii dostrzegam w tle nieco zazdrości i nietolerancji.
Często używam Wikipedii. (…) To wielkie dzieło, na które patrzy się z wielką dozą zazdrości. |
Wydaje się, że jest to ostra reakcja ze strony tych, którzy wywodzą swój prestiż z "sekretnej" wiedzy, i w związku z tym uważają za skandaliczne, że wszystko leży teraz dookoła gotowe do przeczytania a nawet demaskuje ich przesądy.
"Wikipedia jest pełna błędów": być może, lecz drukowane książki również a one nie są poprawiane. Jest też zupełnie nierealistyczne porównywanie Wikipedii z pracami typu Britannica (do której wymagany jest abonament, ponieważ nie ma mikropłatności). Powinno się porównywać Wikipedię z tym, co ludzie mają w swoich domach (często NICZYM!) lub ich głowami. Jeśli Wikipedia jest tak dobra, jak Britannica, to czapki z głów!
Czy wiki przetrwają w dłuższej perspektywie? Myślę, że tak. Dają autorom szkielet, na którym mogą pracować. Cokolwiek przychodzi później, ten szkielet jest ważny.
Edytował pan artykuł o sobie na Wikipedii, czy uważa pan, że jest to łatwe? Prawdopodobnie nie ma pan z tym dużo doświadczenia, ale jakie są pańskie wrażenia na temat oprogramowania MediaWiki, na którym działa Wikipedia?
Uważam, że jest bardzo dobre. Dokładniej, ponieważ nie używam go często, istotne jest, że to oprogramowanie jest wystarczająco proste i intuicyjne, że nie potrzebuję instrukcji. Oprogramowanie wiki spełnia ten warunek i z tego powodu jest bardzo dobre: ważny jest szkielet!
Czy będzie możliwa zgoda na wspólne standardy, gdy producenci oprogramowania próbują promować swoje własne standardy? Czy są istotne przeszkody dla XML-u?
Zdecydowanie możemy zgodzić się na wspólne standardy: OS X jest pełen XML-u a nawet Microsoft używa teraz XML-u w swoich produktach Office.
Własnościowe standardy nie są złe same w sobie. Pozwalają spróbować nowych rzeczy lub być w pewien sposób efektywne. Nie sprzeciwiam się im pod jednym warunkiem: że jest sposób eksportu wszystkich danych w formie XML-u, ze wszystkimi szczegółami, które mógłbym kontrolować w aplikacji, z której brałem XML w zrozumiałej formie.
WWW Consortium odniosło sukces w rozpowszechnianiu standardów WWW a nawet w czymś więcej: kilka standardów komercyjnych pod jego wpływem zbiegło się ze sobą. To dobra wiadomość.
Prawodawcy pozostają w tyle jeśli chodzi o komputery i informatykę. Na pana stronie mówi pan: w społeczeństwie opierającym się o technologię jest po prostu niebezpieczne tworzyć regulacje tylko na bazie konstrukcji językowych. Jaka jest alternatywa dla regulacjach opierających się na języku?
Kilka lat temu miałem mówić o WWW w Parlamencie Europejskim w Brukseli. Byłem zszokowany, że nie można tam było używać niczego innego niż języka mówionego. Żadnego ekranu, żadnego projektora, żadnej tablicy. Jak można mówić coś sensownego o zmianie klimatu bez pokazywania map, grafik, obrazów wideo? Lecz być może powinniśmy najpierw popracować nad "naukową piśmiennością" naszych polityków. To mogłoby nie być potrzebne, gdyby następna forma rządu wyrosła z Web 2.0. Właśnie odkryłem Newropeans (http://www.newropeans.org). Kto wie. Stara technologia samego języka mówionego zdecydowanie nie działa już.
Ostatnio w mediach w Belgii były raporty o wzroście zgłoszonych przypadków przestępczości internetowej. Czy potwierdzają one pański apel o międzynarodowe regulacje zachowania w Internecie? Jeśli ktoś zachowuje się problematycznie w Internecie, jak powinno się postępować z taką osobą?
Czego używamy w normalnym prawie? Policja szuka przestępcy i postępuje według pewnych procedur. Są reguły decydowania o współudziale. W sieci jest inaczej z powodu oddalenia w miejscu i czasie.
Problematyczne zachowanie, jak to eufemistycznie nazwaliście, może pojawić się zewsząd i zazwyczaj działa bardzo szybko. Z tego powodu potrzebujemy prawa o zasięgu światowym. Jednak w konflikcie są tu przynajmniej trzy wielkie konstrukcje prawne: system europejski, amerykański i chiński. Sprawienie, by działały razem, jest problemem, którego rozwiązania nie widzę w najbliższym czasie.
To, co mnie denerwuje, to pomysł, że to w obowiązku dostawcy Internetu lub serwisu leży zareagowanie. Ostatnio MySpace usunęło kilku użytkowników, o których było wiadomo, że są przestępcami seksualnymi. Musiało użyć jakiegoś rodzaju rejestru. Kto o tym zadecydował? Kto przesłał ten rejestr? Reakcja Scotland Yardu była prawidłowa: to, że ci ludzie popełnili przestępstwo, nie powinno być powodem, by byli wykluczeni na zawsze; zwłaszcza jeśli odbyli swoją karę. Być może powinniśmy najpierw zmienić prawo. Widzimy coraz więcej przypadków, w których firmy komercyjne biorą prawo w swoje ręce.
To sprawia, że obawiam się, co sektor komercyjny zrobi w próżni, na którą dały przyzwolenie rządy. O wiele bardziej, niż o to, co zrobią rządy. Jest to związane z moimi obawami, że ludzie zostawiają dane w rękach stron internetowych zamiast utrzymywać nad nimi pełną własną kontrolę.
Nie zapominajmy, że przestępcy seksualni być może nie zrobili nic złego w MySpace. Warunki MySpace są bardzo proste: mają prawo zrobić, co chcą, i wykluczyć cię, kiedy chcą, bez powodu. Dodatkowo mogą przenieść twoje dane do Stanów Zjednoczonych, choć są na tyle szczerzy, że ostrzegają cię, że ochrona danych prywatnych w Stanach "może być inna". Nie, z tych powodów wolę trzymać się z dala od serwisów społecznościowych.
Ostatecznie, czy ci przestępcy seksualni mają telefony? Czy jest to dozwolone? Czy mogą korzystać z poczty? A z dróg swoimi samochodami? Proszę bardzo, mieszajmy tu dalej.
Musimy ustalić, jakie są prawa i obowiązki. Jako przewodnika wciąż mamy Monteskiusza. Oprócz tego orędowałem już od lat za "internetowym prawem jazdy". W ostatnim tygodniu słyszałem o czymś podobnym w brytyjskiej Izbie Gmin.
Wikipedia mówi, że Semantic Web "pochodzi od wizji dyrektora W3C, sir Tima Bernersa-Lee, sieci jako uniwersalnego medium dla wymiany danych, informacji i wiedzy", jednak pan nie jest fanem Semantic Web, prawda? Czy jest tak, ponieważ Semantic Web będzie skutkować tym, że "naszym codziennym życiem będą kierować maszyny rozmawiające z maszynami"? Czy też popiera pan rozpowszechnianie protokołów innego typu transakcji i danych?
Chciałbym mieć dobre Semantic Web. Jednak myślę, że możliwości nadużyć i oszukiwania są większe z Semantic Web |
To trudne pytanie. Chciałbym mieć dobre Semantic Web. Jednak myślę, że możliwości nadużyć i oszukiwania są większe z Semantic Web (Tim zgodził się ze mną, kiedy przekazałem mu ten problem, ale nieugięcie wierzy w dobroć ludzkości).
Jest temat, który przebija z tego wywiadu: komu można ufać i jak można utrzymać reguły, które zapobiegają "problematycznym zachowaniom", w ryzach? Tylko ogólnoświatowy zjazd może tu pomóc, ale jesteśmy od niego daleko.
Jest też nieco zbyt wcześnie, by używać inteligentnych mechanizmów. Zanim dotrzemy do sztucznej inteligencji, musimy przebyć pustynię półsprytnych maszyn. A nie mamy pojęcia, jakie mogą być "półsprytne" maszyny.
Moje nastawienie do Semantic Web jest więc podobne do spostrzeżenia, że poszliśmy do przodu zbyt szybko: może powinniśmy również w tym miejscu najpierw pomyśleć i poeksperymentować, zanim spuścimy bestię z łańcucha!
Może pan przewidzieć przyszłość Internetu? Czy jest pan optymistą, czy będzie to "Matrix, ale gorszy"?
Ucieczka od rzeczywistości jest nieuniknionym efektem ubocznym struktur naszego mózgu. |
Matrix, ale gorszy. Ucieczka od rzeczywistości jest nieuniknionym efektem ubocznym struktur naszego mózgu. Z tego względu przez tysiące lat ludzie woleli słuchać bajek niż radzić sobie z nudną rzeczywistością.
Ciągle myślę, że Web 2.0 jest dobrym trendem: blogi, Wikipedia, ringi, wszystkie te osiągnięcia wychodzą od prostych ludzi siedzących przy ich komputerach domowych, którzy dzielą się z innymi tym, czego doświadczają, i co najważniejsze, uczą się od innych! Ta nauka poza szkołą jest największą siłą sieci i daje najwięcej nadziei.
Pytanie finałowe
[edytuj | edytuj kod]Pracował pan w CERN-ie przez 33 lata: żałuje pan tego? Jak spędza pan czas teraz? Czy przebywa pan dużo w Internecie? W jakich projektach bierze pan wciąż udział?
Miałem przynajmniej cztery różne kariery w CERN-ie. Choć spędziłem tam 33 lata, było to tak, jakbym zmieniał firmę cztery razy. To, co zostało, to środowisko kolegów, którzy są skromni. Pewien dziennikarz napisał o CERN-ie:
Niesamowite! Są ludzie, którzy zmieniają swoje zdanie w obliczu dowodów!
Tego nastawienia, takiego samego jak w Oświeceniu, nie oddałbym za żadną cenę. Jest znacznie bardziej satysfakcjonujące samodzielne odkrycie, jak naprawdę jest, niż oddanie się dogmatom lub czemuś innemu. Na szczęście miałem wystarczająco dużo przyjaciół z podobnym nastawieniem, zarówno w CERN-ie, jak i poza nim.
Czy spędzam dużo czasu w sieci? Cóż, "przebywanie w sieci" to nie zawód. To, co robię, to wymiana idei, czytanie, uczenie się, redagowanie (przede wszystkim NotSchool) oraz zerkanie tu i tam. Zawsze to robiłem. Dużą część tych czynności robię teraz przez sieć, ale jest to tak mało znaczące, jak mówienie, że używam elektryczności w wielu rzeczach.
Poświęcam czas kilku prywatnym projektom, na które czekałem przez dłuższy czas, oraz na problem edukacji w naukowym piśmiennictwie.
R.
Linki zewnętrzne
[edytuj | edytuj kod]
Materiał do tego artykułu przygotował reporter Wikinews. |