Nooit zal er een open source Google zijn

Toen Eric Schmidt, ceo van Google, de zoekmachine die ‘don’t be evil’ als motto hanteert, werd gevraagd wat ze in Mountain View precies verstonden onder ‘evil’, verwees hij naar Sergey Brin, die het bedrijf samen met Larry Page in 1998 stichtte. ‘Het kwaad is’, zei Schmidt, ‘wat Sergey zegt dat het kwaad is.’

Als Brin deze week volgens berichten in de media toegeeft dat het achteraf bezien niet verstandig was om te dealen met China, en zoektermen als Falun Gong of de namen van in ongenade gevallen leiders af te sluiten, dan betekent dat iets. Dan buigt Google, ofwel voor zijn eigen motto, ofwel voor druk van onderaf, van gebruikers.

Op dat laatste houdt Geert-Jan Bogaerts het, internetchef van de Volkskrant. In zijn column vandaag gaat hij een stap verder. Het wordt tijd, schrijft hij, dat er een minder kwaadaardig alternatief voor Google komt. Het wordt tijd voor een open source zoekmachine.

Nou zijn die er al jaren. Zie dit overzicht, bijvoorbeeld. Er is zelfs een tamelijk veel geprezen open source zoekmachine, genaamd Nutch. John Battelle, de ex-Wired-journalist en auteur van een boek over Google, verwachtte in 2003 dat Nutch de regels van het spel qua zoeken ging herschrijven.

Nutch wordt (of werd) gesteund door de spraakmakende gemeente van open source. Mitch Kapor, miljonair en oprichter van Lotus, maar ook uitgever Tim O’Reilly (de man die de term web 2.0 uitnutte) en Brewster Kahle, miljonair en idealist, staan achter het zoekproject.

En toch, zeggen kennissen van mij met meer verstand van zoekmachines en open source, zal het niet lukken. Omdat er meer nodig is voor een Google-alternatief dan het algoritme, ofwel de set van de regels die een computer vertelt hoe iets te doen. Google doet zeer geheimzinnig over het eigen algoritme, PageRank, genoemd naar Larry Page, maar in een open source omgeving zou de gebruiker gewoon weten hoe het werkt en niet hoeven te vertrouwen op het ‘don’t be evil’-Google.

Punt is dat een zoekmachine probeert een kopie te maken van internet, die indexeert en dan op basis van dat algoritme razendsnel resultaten uitspuugt. Nutch had een jaar geleden zo’n 100 miljoen pagina’s opgeslagen. Dat lijkt veel maar is een fractie van de pakweg 4 (of waren het er al 5) miljard van Google.

Google heeft de hardware – 150.000 pc’s (of zijn het er al 200.000) in zogeheten serverparken – om al die pagina’s op te slaan. Een open source project zou dat nog kunnen nabootsen door gebruik te maken van een peer-to-peer netwerk, zoals Kazaa dat deed. Gedistribueerd computeren, heet dat ook wel. Er zijn prachtige, grote projecten mee op touw gezet.

Maar waar het mis gaat, is de snelheid. De verbindingen tussen al die pc’s zijn in handen van telecombedrijven die er geen enkel belang bij hebben – althans niet de indruk wekken – in ‘search’ te gaan, met elkaar en die moeilijk in de hand te houden open source gemeenschap. Bandbreedte nekt een open source zoekmachine met de ambitie een tweede Google te worden.

Nog belangrijker is dat Google al lang bezig is met het perfectioneren van zijn eigen algoritme. Waarom zou je alleen zoeken op basis van hyperlinks die je waardeert, zoals Google nu ongeveer doet. Als Google weet wie ik ben, wie mijn vrienden zijn, wat ik in mail schrijf, waar ik mijn boeken koop, en welke, en als alle files op mijn computer ook kunnen dienen als ‘overwegingen’ bij mijn zoekopdrachten, worden de resultaten nog veel beter dan ze nu al zijn.

Google is het kwaad niet. Ik vertrouw Sergey Brin, geloof ik. Maar als het bedrijf in laatste instantie, zeg over een jaar of drie, zijn laatste product uit Google Labs los laat op de mensheid, zal blijken wie we hebben vertrouwd. Dat product zal heten Google Think.

Reacties zijn gesloten.