Vídeo: Els Catarres - Vull estar amb tu (De novembre 2024)
Per obtenir les meves notícies, escaneixo sovint Google News, que agrupa articles de tot el món en funció del que el "robot" ha determinat. Es tracta d'allò que està en tendència. Generalment falta notícies d’última hora i ignora totalment els comentaris importants, com la meva columna. En canvi, sembla preferir anar a enllaços morts, per la qual cosa vull dir el Wall Street Journal , que requereix una subscripció per llegir-lo.
Avui és un cas concret. Hi va haver una notícia de CES sobre la xarxa de plats que va oferir una oferta per comprar Clearwire. Però en lloc de vincular-se a qualsevol de les històries relacionades mitjançant llocs web gratuïts i llegibles, Google decideix que la notícia superior ha de ser del Wall Street Journal .
En el passat, Google tenia una mena de tracte que permetia als usuaris llegir almenys el paràgraf principal, o fins i tot l’article sencer, abans de ser bloquejat per la caixa de pagaments. A menys que conegueu un trucament de bypass (comentat a continuació), això ja no s'aplica. Ara arribes a la llista de pagaments i ja acabes. Suposo que els subscriptors reals passen per sobre, però em pregunto com es veuen els bots de Google per trobar la història en primer lloc. Google paga? Ho dubto. Per tant, hi ha d'haver algun tipus de porta posterior per als robots de Google, oi?
Això és fals i fa un servei per als usuaris de Google. Google passa tots aquests problemes per derrotar a les persones que intenten jugar al sistema, però deixa que el Wall Street Journal faci aquest truc? Es tracta bàsicament d’un pagament de les subscripcions de Wall Street Journal . És el que vol Google? Google està tallant?
No pot ser tan difícil que Google solucioni aquesta molèstia. Es necessitaria un minut: cinc cims. És massa feina?
Si una empresa té un pla de pagaments integrat al seu servei, Google no hauria de cercar el lloc en absolut. Els bots han de saber que hi ha un quadre de pagament i només cal evitar la cerca. I, sí, voldria una explicació sobre com exactament els bots poden cercar en un lloc bloquejat per un tauler de pagament. És un misteri.
Un paperet hauria de ser exactament el mateix que un "robots.txt" que indica que el bot del rastrejador desaparegui. Però la relació entre WSJ i Google és quelcom important. La manera més fàcil de matar a tots els bots és una metaetiqueta al fitxer robots.txt, per la qual cosa: .
El WSJ, en canvi, bloqueja específicament determinats subdirectori, però aparentment no tots. I encara més estrany, si feu una cerca de Google News pel mateix article, en lloc de simplement fer clic a l’enllaç de l’espai, obté l’article mitjançant algun altre mecanisme.
Repto als lectors més tècnics que hi hagi que esbrini què passa amb aquests dos examinant el fitxer robots.txt emprat per la WSJ . Un document públic està disponible aquí.
Sigui com sigui, els llocs tenen fons de seguretat per motius financers. Si volen jugar a jocs amb el seu contingut, això és una cosa, però s'ha de prohibir als resultats de la cerca, de la mateixa manera que Google intenta frustrar les persones que intenten jugar al sistema. Google prohibirà a un blogger desafectat a la caiguda del barret per algun comportament incomplet. Què tal de tractar amb llocs més grans de la mateixa manera?
Podeu seguir a John C. Dvorak a Twitter @therealdvorak.
Més John C. Dvorak:
Vés fora de tema amb John C. Dvorak.
VEURE TOTES LES FOTOS DE GALERIA