La ricerca in rete, tra utopie e nuove frontiere digitali – Seconda parte
Sommario
Nella prima parte abbiamo visto come la ricerca di informazioni sia passata dalle schedine cartacee delle biblioteche ai primi passi nel mondo digitale. Una trasformazione non automatica né semplice che ha richiesto tempo e ha incontrato difficoltà come la guerra dei browser e la mancanza di standard di sviluppo. Ora vedremo come l’evoluzione tecnologica ha ridisegnato il modo in cui cerchiamo e troviamo le informazioni.
Quando la ricerca diventa intelligente
L’arrivo di Google nel 1998 trasformò radicalmente questo scenario. Il suo algoritmo PageRank introduceva un nuovo concetto: non bastava più trovare le pagine che contenevano certe parole, ma occorreva valutarne l’autorevolezza attraverso i collegamenti che ricevevano da altri siti.
La semplicità divenne la chiave del successo: una singola casella di ricerca dove digitare qualsiasi domanda. Scrivere “clima Roma” era sufficiente per ottenere previsioni meteorologiche specifiche. I risultati privilegiavano fonti autorevoli, spesso accademiche o istituzionali, rendendo le informazioni più affidabili e immediate.
Verso una ricerca che comprende
Nel 2015, i motori di ricerca hanno compiuto un importante passo avanti grazie alla capacità di comprendere non solo le parole chiave ma anche il significato dietro le query, introducendo il concetto di semantic search. Sistemi come Google RankBrain utilizzavano l’intelligenza artificiale per interpretare richieste complesse o mai viste prima, migliorando l’accuratezza e la rilevanza dei risultati. Per esempio, cercare “rimedi per il mal di testa” restituiva una gamma di risposte mirate: articoli medici, consigli pratici e guide, organizzati per essere facilmente consultabili.
Un altro elemento innovativo era la personalizzazione dei risultati, basata su dati come posizione geografica, cronologia delle ricerche e comportamenti online. Questo migliorava l’esperienza utente ma comportava anche rischi, come quello delle filter bubbles o bolle informative, che potevano isolare gli utenti in un ecosistema digitale limitato, mostrando solo contenuti che confermavano le loro opinioni preesistenti. Questa tendenza, teorizzata da Eli Pariser, ha suscitato preoccupazioni sul pluralismo informativo e sull’impatto sulla società, specie in ambiti critici come la politica, evidenziando come l’ordine dei risultati poteva influenzare decisioni importanti, come il voto.
Nonostante questi rischi, la personalizzazione poteva avere aspetti positivi, rendendo l’accesso alle informazioni più veloce e coerente. Per bilanciare i benefici con i pericoli di distorsione informativa, diventava necessario introdurre maggiore trasparenza nei processi di personalizzazione e nel funzionamento degli algoritmi.
L’era dell’intelligenza artificiale nella ricerca
Dal 2020, l’intelligenza artificiale (IA) ha rivoluzionato il modo in cui interagiamo con i motori di ricerca, introducendo tecnologie avanzate come il modello Multitask Unified Model (MUM) di Google. Questa architettura consente di comprendere query complesse e di rispondere in modo più preciso integrando informazioni provenienti da diverse fonti e tipi di media, come testi, immagini e persino video.
Evoluzione della comprensione delle query
Grazie a strumenti come MUM, le ricerche non si limitano a parole chiave, ma interpretano il contesto delle domande. Ad esempio, se si chiede “Ho scalato il Cervino e ora voglio salire sul Monte Bianco, cosa devo fare di diverso?”, il sistema scompone la domanda in sottoproblemi, come prepararsi per scalare ogni montagna e condizioni meteo locali, e restituisce risposte integrate e contestuali.
Ricerca multimodale
L’IA ha reso la ricerca multimodale un fatto quotidiano. Ora è possibile combinare input diversi, come cercare tramite testo e immagini contemporaneamente. Ad esempio, con Google Lens, un utente può fotografare un paio di scarpe e chiedere se sono adatte per un’escursione in montagna. Il sistema risponde basandosi sui materiali delle scarpe e sulle condizioni del terreno.
Traduzioni e interazione linguistica avanzata
Le nuove tecnologie supportano query in più lingue (fino a 75) e traducono informazioni da documenti in altre lingue per fornire risposte nella lingua dell’utente.
Questi sviluppi non solo migliorano la velocità e la precisione delle risposte, ma ridisegnano l’esperienza di ricerca, rendendola più naturale e intuitiva. Rimangono le sfide legate alla gestione della qualità dei dati e alla riduzione di potenziali bias algoritmici. Per questo, Google ha introdotto misure per filtrare contenuti inappropriati durante l’addestramento dei modelli e ha utilizzato revisori umani per valutare la neutralità delle risposte.
Con l’IA generativa in continua evoluzione, come le tecnologie basate su modelli Transformer, i motori di ricerca si stanno trasformando in assistenti personali capaci di risolvere problemi complessi e di suggerire soluzioni personalizzate a domande che, fino a pochi anni fa, non avrebbero trovato risposte adeguate.
Uno sguardo al futuro
Nel 2024, Anna mostra a sua madre Maria come il suo smartphone può identificare oggetti semplicemente puntando la fotocamera verso di essi. Maria sorride ripensando ai tempi del modem gracchiante, e vorrebbe tanto raccontarle di un sogno infranto, di quando scriveva e pubblicava ricerche scientifiche sul web ora scomparse in una mare infinito di pubblicità e inutili video.
Il futuro della ricerca sembra promettere grandi sviluppi: la realtà aumentata ci permetterà di sovrapporre informazioni al mondo reale, le interfacce neurali potrebbero consentirci di cercare informazioni con il solo pensiero. I sistemi predittivi anticiperanno le nostre domande prima ancora che le formuliamo.
In questo futuro di fantascienza, potremmo considerare il pensiero critico come una delle fondamentali differenze tra noi e le meccaniche, ne più ne meno come gli stimoli primordiali della fame e della sete. La sfida non sarà trovare informazioni, ma valutarle e trasformarle in conoscenza. In un mondo di molteplici risposte immediate, la capacità di riflettere e comprendere diventerà una abilità che può fare la differenza.
I social media come motori di ricerca
I social media hanno creato un nuovo modello di ricerca. Sempre più persone, soprattutto giovani, utilizzano piattaforme come TikTok o Instagram per cercare ristoranti, prodotti o informazioni, bypassando i motori di ricerca tradizionali. Questo fenomeno ha portato alla creazione di algoritmi specializzati che privilegiano contenuti virali e coinvolgenti rispetto alla precisione dell’informazione.
Il risultato è una frammentazione dell’informazione in ambienti chiusi, dove le visualizzazioni spesso prevalgono sull’autorevolezza. Un banale esempio potrebbe essere una ricerca di informazioni sulla salute: mentre sui motori di ricerca tradizionali i primi risultati provengono da fonti accademiche e istituzioni sanitarie, su TikTok o Instagram prevalgono video virali di influencer, senza basi scientifiche ma con milioni di visualizzazioni. Gli utenti tendono a rimanere all’interno della piattaforma che utilizzano, esponendosi solo a contenuti filtrati dagli algoritmi di quella specifica piattaforma. Il meccanismo dei like e delle condivisioni premia contenuti emotivamente coinvolgenti o stravaganti piuttosto che accurati: un video di 30 secondi con affermazioni controverse può raggiungere milioni di visualizzazioni, mentre un articolo scientifico ben documentato rimane praticamente invisibile in questi ecosistemi social.
La rivoluzione mobile
Il passaggio al mobile ha profondamente modificato i metodi di ricerca. Le app specializzate hanno sostituito il browser per molte ricerche: si usa Spotify o Shazam per la musica, Amazon o App di store online per gli acquisti in rete, Google Maps per le direzioni. Questa specializzazione ha creato un web “chiuso”, dove le informazioni restano all’interno di singole applicazioni. Il motore di ricerca tradizionale diventa così solo uno dei tanti strumenti di ricerca, e di accesso all’informazione.
La specializzazione delle app ha trasformato profondamente non solo il modo in cui cerchiamo informazioni, ma anche come le scopriamo. Nel web tradizionale, una ricerca poteva portare a scoperte inaspettate: cercando una ricetta si poteva scoprire un blog di viaggi, un libro di cucina storica o una comunità di appassionati. Oggi, chiusi nelle app specializzate, queste scoperte casuali diventano rare.
Le app dominanti creano veri e propri recinti: i dati di Spotify non comunicano con Apple Music, le recensioni di un ristorante su Google Maps restano separate da quelle di TripAdvisor. Questa frammentazione limita la libertà degli utenti, e crea anche barriere per nuovi servizi che faticano a emergere in un mercato dominato da poche grandi piattaforme.
Il caso di WeChat in Cina illustra un modello alternativo di integrazione digitale. Con oltre 1.3 miliardi di utenti attivi nel 2023, questa super-app combina messaggistica, pagamenti digitali, prenotazioni di servizi e mini-programmi in un’unica piattaforma. Gli utenti cinesi possono ordinare cibo, chiamare un taxi, pagare le bollette o prenotare una visita medica senza mai uscire dall’app. Questo approccio risolve il problema della frammentazione, ma solleva molte questioni sulla privacy e il controllo dei dati. WeChat opera sotto le leggi cinesi sulla cybersecurity, che impongono l’accesso governativo ai dati degli utenti, un modello che ha limitato la sua diffusione globale.
Il tentativo di replicare il modello WeChat in Occidente si scontra con una diversa sensibilità sulla privacy e una regolamentazione più attenta sulla protezione dei dati personali. Mentre le grandi aziende tecnologiche occidentali cercano di sviluppare le proprie super-app, gli utenti sembrano preferire un ecosistema di app separate, accettando la frammentazione come prezzo per una maggiore autonomia digitale.
Privacy e personalizzazione nell’era digitale
La questione della privacy nella ricerca online è diventata centrale nel dibattito sulla tecnologia digitale. Secondo uno studio del Princeton Web Transparency & Accountability Project del 2022, i tracker di Google sono presenti nel 75% dei siti web e quelli di Facebook nel 25%, evidenziando come la raccolta dati abbia raggiunto livelli senza precedenti. Come afferma Jarom Lanier, “se è gratis il prodotto sei tu”, una massima che riflette perfettamente l’economia dell’attenzione che domina il web.
A novembre 2023, Chrome domina il mercato con il 63.5% delle quote, seguito da Safari al 21.4%. Il resto del mercato è diviso tra Edge (5.3%), Firefox (2.9%) e Opera (2.2%), creando un sistema dove la raccolta dati è diventata pervasiva. Ogni ricerca, ogni click, ogni pagina visitata contribuisce a costruire un profilo dettagliato dell’utente.
In risposta a questa situazione, sono emersi servizi alternativi come DuckDuckGo che propongono un approccio diverso. Questo motore di ricerca non memorizza la cronologia delle ricerche, non profila gli utenti e blocca i tracker online. I risultati che fornisce non sono filtrati in base alle preferenze personali, offrendo una visione più neutra e meno influenzata dalle precedenti ricerche.
La personalizzazione dei risultati, che Google ha perfezionato nel tempo, presenta vantaggi e svantaggi. Se da un lato può rendere le ricerche più efficienti mostrando risultati rilevanti per l’utente specifico, dall’altro rischia di creare “bolle informative” dove vediamo solo contenuti allineati alle nostre preferenze. Inoltre, la raccolta massiva di dati necessaria per questa personalizzazione solleva questioni etiche sulla privacy digitale.
Questa conflitto tra personalizzazione e privacy rappresenta una delle sfide più importanti per il futuro della ricerca online. Gli utenti si trovano sempre più spesso a dover scegliere tra la comodità di servizi altamente personalizzati e la protezione della propria privacy digitale, una scelta che fa riflettere sul ruolo della tecnologia nella società contemporanea.
Dalla visione pionieristica di un web democratico e condiviso degli anni ’90, ora viviamo un presente complesso e contraddittorio. Se la tecnologia ha reso la ricerca di informazioni più immediata ed efficiente, ha anche creato nuove forme di controllo e dipendenza. Il sogno di una conoscenza libera e accessibile si è trasformato in una realtà frammentata, dove l’informazione è filtrata da algoritmi e interessi commerciali. Stranamente, anche le normative sulla privacy, nate per proteggere gli utenti, sono diventate spesso strumenti per raccogliere consensi forzati, mentre la pubblicità invasiva rende sempre più difficile accedere ai contenuti, persino sui siti più autorevoli.
Chissà se in futuro si riuscirà a recuperare quello spirito originario di condivisione della conoscenza, un obiettivo che lo stesso Tim Berners-Lee persegue attraverso il progetto Solid e la sua azienda Inrupt, nel tentativo di creare un web decentralizzato dove gli utenti possano riprendere il controllo dei propri dati. Una sfida ambiziosa che si scontra con pratiche consolidate e interessi economici, ma che mantiene viva la speranza di un web più democratico e rispettoso della privacy.
Glossario della ricerca online
A-D
Algoritmo di ricerca
Sistema di regole matematiche utilizzato dai motori di ricerca per determinare quali risultati mostrare e in che ordine.
Esempio: Google usa algoritmi come il PageRank per valutare l’importanza delle pagine.
AI generativa (Generative AI)
Tecnologia basata sull’intelligenza artificiale in grado di creare contenuti, come testi, immagini o video, in risposta a una richiesta.
Esempio: ChatGPT è un esempio di AI generativa che può rispondere a domande complesse.
Bias algoritmico
Pregiudizi sistematici che possono influenzare i risultati di un algoritmo, spesso riflettendo pregiudizi presenti nei dati su cui è stato addestrato.
Esempio: Se i dati favoriscono grandi ospedali, un motore di ricerca potrebbe mostrare solo questi, ignorando piccole cliniche.
Boolean Operators (Operatori Booleani)
Parole o simboli (AND, OR, NOT) usati per combinare o escludere termini nelle ricerche.
Esempio: “pizza AND Roma” trova risultati che contengono entrambi i termini.
Crawler (Spider)
Software che esplora automaticamente le pagine web per indicizzarle nei motori di ricerca.
Esempio: I crawler di Google analizzano milioni di pagine al giorno.
E-H
Echo chamber (Camera dell’Eco)
Situazione in cui una persona viene esposta solo a informazioni che confermano le sue opinioni, spesso a causa della personalizzazione algoritmica.
Esempio: Se cerchi spesso notizie sportive, i motori di ricerca potrebbero mostrarti solo contenuti relativi allo sport, escludendo altri argomenti.
Filter bubble (Bolla informativa)
Isolamento informativo causato dagli algoritmi di personalizzazione, che mostrano solo risultati in linea con le preferenze dell’utente.
Esempio: Un appassionato di tecnologia potrebbe vedere solo articoli su smartphone, ignorando argomenti come politica o economia.
Google My Business
Strumento gratuito di Google che permette alle aziende di gestire la propria presenza online.
Esempio: Un ristorante può usare Google My Business per aggiornare orari, menu e raccogliere recensioni.
Google RankBrain
Sistema di intelligenza artificiale introdotto nel 2015 da Google. Aiuta a elaborare query complesse o nuove, migliorando la comprensione delle richieste e il ranking dei risultati.
HTTPS
Protocollo di comunicazione che garantisce la sicurezza dei dati trasmessi tra browser e sito web.
Esempio: I siti con HTTPS sono segnalati con un lucchetto accanto all’URL.
I-L
Indicizzazione
Processo con cui i motori di ricerca catalogano i contenuti delle pagine web per renderli disponibili nei risultati di ricerca.
Esempio: Dopo che un crawler esplora una pagina, questa viene indicizzata per poter comparire nei risultati.
Knowledge Graph
Strumento di Google che mostra informazioni strutturate accanto ai risultati di ricerca. Integra dati su concetti, persone o argomenti per rispondere direttamente alle domande degli utenti.
Esempio: Cercando “altezza Torre Eiffel”, Google mostra direttamente “324 metri” senza dover cliccare su un link.
Long-Tail Keyword (Parola chiave a coda lunga)
Frase di ricerca specifica e dettagliata, spesso usata per attirare utenti con esigenze precise.
Esempio: “Ristorante vegetariano con vista mare a Napoli” è una long-tail keyword.
M-P
Meta Tag
Elementi HTML che descrivono il contenuto di una pagina web ai motori di ricerca.
Esempio: Un meta tag può indicare che una pagina riguarda “Ricette di cucina italiana”.
Natural Language Processing (NLP)
Tecnologia che permette ai motori di ricerca di comprendere il linguaggio naturale, anche se scritto in modo colloquiale.
Esempio: Una query come “Come posso fare una torta senza uova?” viene compresa grazie all’NLP.
PageRank
Algoritmo di Google che valuta l’importanza delle pagine web basandosi sui link in entrata.
Esempio: Una pagina citata da molti siti autorevoli avrà un punteggio PageRank più alto.
Personalizzazione dei risultati
Processo che adatta i risultati delle ricerche online in base a dati personali come cronologia, posizione e preferenze con lo scopo di fornire informazioni più rilevanti ma può limitare la neutralità delle informazioni.
Esempio: Cercando “ristorante vicino a me”, il motore di ricerca mostrerà opzioni nella tua area.
Q-T
Query
Parola o frase inserita in un motore di ricerca per ottenere informazioni.
Esempio: “Previsioni meteo Roma” è una query.
Responsive design
Approccio alla progettazione web che permette alle pagine di adattarsi automaticamente alle dimensioni dello schermo del dispositivo utilizzato (smartphone, tablet, desktop). Un sito responsive modifica il proprio layout e la disposizione dei contenuti per garantire la migliore leggibilità e usabilità su qualsiasi dispositivo.
Esempio: Un sito responsive passa da tre colonne su desktop a una singola colonna su smartphone, mantenendo i contenuti facilmente leggibili.
Semantic Search
Tecnologia che interpreta il significato e l’intento delle query degli utenti, superando la semplice ricerca basata su parole chiave. Permette di ottenere risultati più pertinenti e contestualizzati.
Search Engine Manipulation Effect (SEME)
Effetto per cui l’ordine dei risultati nei motori di ricerca può influenzare le decisioni degli utenti, come nelle elezioni, manipolando inconsapevolmente le loro scelte
SEO (Search Engine Optimization)
Insieme di tecniche usate per migliorare il posizionamento di un sito nei risultati di ricerca.
Esempio: Aggiungere parole chiave come “pasta fresca Roma” a una pagina di un ristorante migliora la SEO.
Snippet
Breve anteprima del contenuto di una pagina mostrata nei risultati di ricerca.
Esempio: Un risultato per “ricette di torta al cioccolato” potrebbe mostrare una lista di ingredienti direttamente nella pagina dei risultati.
U-Z
Universal search
Integrazione di diversi tipi di contenuti (testi, immagini, video) nei risultati di ricerca.
Esempio: Cercando “Torre Eiffel”, Google mostra articoli, immagini e mappe.
User Intent (Intenzione dell’Utente)
Il motivo o obiettivo che spinge una persona a fare una ricerca.
Esempio: Una query come “miglior ristorante a Firenze” riflette l’intenzione di trovare un posto per mangiare.
Voice search
Ricerca effettuata tramite comandi vocali.
Esempio: Dicendo “Che tempo farà domani?”, un assistente vocale fornisce previsioni meteo.
W3C (World Wide Web Consortium)
Organizzazione internazionale fondata da Tim Berners-Lee che sviluppa e mantiene gli standard del World Wide Web. Il W3C si occupa di definire protocolli e linee guida per garantire la crescita a lungo termine del Web attraverso standard condivisi come HTML, CSS e molte altre tecnologie web.
Esempio: grazie agli standard W3C, una pagina web può essere visualizzata correttamente su browser e dispositivi diversi.
Web Crawler
Strumento software che esplora automaticamente il web per raccogliere informazioni e indicizzarle.
Esempio: I crawler di Google analizzano siti per aggiornarne i contenuti nei risultati di ricerca.
Attribuzioni
L’immagine in evidenza è generata con il supporto di un’intelligenza artificiale tramite DALL·E, sviluppato da OpenAI.