Le otto pioniere dell'informatica al femminile

by Antonello Camilotto


Sono molte le donne che hanno fatto la storia dell’informatica ma le cui teorie, idee e invenzioni fondamentali a stento vengono oggi nominate e studiate.


 Ada Lovelace Byron

Nata nel 1815 e morta a soli 36 anni, Ada venne concepita nel breve e infelice matrimonio fra il poeta George Gordon Byron e la nobile matematica Anne Isabella Milbanke. La madre la portò via dopo la separazione dal marito, e indirizzò la sua educazione verso le materie scientifiche con un occhio di riguardo per la matematica. La donna temeva infatti che Ada avrebbe potuto ricalcare i passi fallimentari del padre nel mondo della poesia.


Fin dai primi anni, caratterizzati da una salute cagionevole, Ada si rivelò una bimba prodigio. Grandi studiosi e matematici assunti da sua madre, ne seguirono e incoraggiarono attivamente gli studi fin dall’infanzia.


A 17 anni, durante un ricevimento, conobbe il matematico Charles Babbage, inventore che influenzò molto i suoi studi futuri. L’uomo le parlò del suo ultimo progetto, la Macchina Analitica, uno dei tasselli fondamentali della storia dell’informatica. Tale macchina era sostanzialmente il primo prototipo di computer meccanico, anche se non venne mai effettivamente completata. Babbage vedeva nel suo progetto solo una sfaccettatura limitata, ossia quella di un semplice calcolatore. Per l’epoca era comunque un progetto estremamente all’avanguardia.


Fu proprio Ada ad intravedere però le potenziali applicazioni ben più complesse e futuristiche di tale macchina, prevedendo che avrebbe cambiato le sorti dell’umanità in ambito scientifico, e prefigurando il concetto di intelligenza artificiale. Dalla collaborazione fra i due, e la corrispondenza col giovane ingegnere italiano Luigi Federico Menabrea, Ada elaborò un algoritmo per la Macchina Analitica, che le avrebbe consentito di calcolare i numeri di Bernoulli. Tale lavoro è stato riconosciuto al giorno d’oggi come il primo vero e proprio programma mai scritto per un computer. Ada Lovelace Byron è stata dunque a tutti gli effetti la prima programmatrice della storia dei computer, nonché la visionaria che intravide i primi abbozzi di un futuro informatico non troppo lontano.


๏ปฟSuor Mary Kenneth Keller

Nata nel 1913 e morta nel 1985 fu una donna di fede ma anche una pioniera dell’informatica.


Dopo aver preso i voti e ben due lauree in matematica e fisica, Mary fu la prima donna nella storia degli Stati Uniti ad ottenere un PhD in informatica, ossia un dottorato. La sua tesi trattava degli algoritmi necessari alla soluzione analitica di equazioni differenziali.


Nel 1958 partecipò allo sviluppo del BASIC, un linguaggio di programmazione ad alto livello. Nel 1965 invece, iniziò una brillante carriera nel campo dell’insegnamento al Clarke College di Dubuque nell’Iowa. Qui fondò il Dipartimento di Informatica del College e lo resse per ben vent’anni. La sua visione come informatica e soprattutto educatrice, era volta ad offrire grande importanza al processare e rendere fruibile la mole di informazioni già all’epoca disponibili, soprattutto per facilitarne l’apprendimento.


 Hedy Lamarr

Nata nel 1914 e morta nel 2000, oltre ad essere una diva del cinema, fu anche una grande inventrice. L’ex studentessa di ingegneria a Vienna, ha sviluppato insieme al compositore George Antheil un sistema di guida a distanza per siluri. Il brevetto consiste in un sistema di modulazione per la codifica di informazioni da trasmettere su frequenze radio, verso un’entità che li riceverà nello stesso ordine con il quale sono state trasmesse. La sua invenzione contribuì in modo decisivo alla sconfitta dei nazisti ed è alla base di tutte le tecnologie di comunicazione senza fili che usiamo oggi, dal wi-fi al Gps.


 Karen Spärck Jones

Nata nel 1935 e morta nel 2007, fu figlia dell’insegnante di chimica Owen Jones e della norvegese Ida Spärck. Dopo la laura in Filosofia e una breve carriera come insegnante, si dedicò del tutto al mondo dei computer. Divenne docente di informatica alla prestigiosa Cambridge, e fu per tutta la sua vita una forte sostenitrice dell’avvicinamento delle donne all’intero campo tecnologico.


Karen fu l’ideatrice del sistema alla base dei moderni motori di ricerca, con la creazione della cosiddetta funzione di peso td-idf. Questa funzione era capace di misurare la rilevanza e importanza di uno specifico termine in relazione ad uno o più documenti. Karen presentò questo lavoro in un articolo nel 1972 “A statistical interpretation of term specificity and its application in retrieval”, che venne poi concretizzato da Mike Burrows nel 1994 con la creazione del motore di ricerca Alta Vista. Un’opera essenziale per rendere più facilmente consultabili numerosissimi documenti destinati a moltiplicarsi e ammucchiarsi esponenzialmente nei decenni a venire.


 Grace Murray Hopper

Nata nel 1906 e morta nel 1992, questa donna esile e minuta fu una brillante matematica, informatica ed anche una militare statunitense. Dopo aver ottenuto un PhD in matematica nel 1934 a Yale, insegnò per due anni al Vassar College e in seguito si arruolò nella Riserva della Marina nel ’43. La sua genialità le offrì un posto in Marina nonostante non rientrasse negli standard minimi fisici, a causa della sua bassa statura. Per permetterle ciò venne persino emessa una deroga fatta su misura per lei.


A Grace la storia dell’informatica deve molto, in quanto fra le tante cose, il suo ruolo fu essenziale nella programmazione del COBOL, linguaggio adoperato ancora oggi in software commerciali di tipo bancario. A Grace dobbiamo anche l’utilizzo del termine bug per definire un malfunzionamento di un computer, e le relative operazioni di debugging.


 Radia Perlman

Nata nel 1951, è ancora oggi una celebre informatica soprannominata affettuosamente “la madre degli switch“. Dopo una laurea in matematica ed un dottorato in informatica al prestigioso Massachusetts Institute of Technology (MIT), Radia ha donato al progresso informatico un contribuito storicamente essenziale, senza la quale oggi non avremmo internet così come lo conosciamo. Radia, fra i suoi numerosi contributi, è celebre per aver concepito l’algoritmo alla base del protocollo spanning tree, essenziale nel networking.


 Adele Goldberg

Nata nell’Ohio nel 1945, è tutt’ora una celebre informatica statunitense. Laureata in matematica con un master in informatica, ha ottenuto il PhD in scienze dell’informazione. È stata per diversi anni operativa presso il PARC, il Centro di ricerca Xerox a Palo Alto ed è stata la co-fondatrice della ParcPlace-Digitalk. I suoi contributi al mondo dell’informatica sono stati riconosciuti e premiati nel corso degli anni, ed è nota in particolare per il lavoro di sviluppo del linguaggio di programmazione Smalltalk, in collaborazione con Alan Kay.


 Anita Borg

Nata nel 1949 e morta nel 2003, l’informatica statunitense è stata colei che ha dato forse l’impulso maggiore a beneficio delle donne in campo informatico e tecnologico. Un apporto essenziale e ancora oggi estremamente attuale, atto ad incoraggiare la presenza femminile in un mondo che vede le donne ancora troppo assenti se non direttamente escluse da studio e lavori legati alle discipline tecnologiche.


Celebre per i suoi lavori come ricercatrice e programmatrice, la Borg fondò nel 1987 Systers, una rete di email per donne che lavoravano e studiavano nell’ambito della tecnologia con un’alta formazione a livello tecnico. Tale rete consentiva un ricco scambio di consigli ed esperienze nel campo, ma costituì anche il terreno fertile per piccole ma rilevanti lotte sociali. Una delle poche argomentazioni non tecniche che vennero trattate in Systers riguardò ad esempio l’uscita nel 1992 da parte di Mattel, di una Barbie che recitava una battuta come “l’ora di matematica è tosta“. Tale giocattolo, per quanto apparentemente innocuo, si sarebbe potuto rivelare piuttosto dannoso per la formazione delle bambine, alimentando fin dall’infanzia lo stereotipo che vuole la matematica come materia naturalmente più indirizzata ai maschi. La protesta sorta da Systers portò alla rimozione di quella frase dai microchip della celebre bambola.


Fra le imprese più grandi di Anita Borg sempre in ambito femminile, vi furono la creazione della Grace Hopper Celebration of Women in Computing nel 1994 e la fondazione dell’Institute for Women and Technology nel 1997. La Grace Hopper, in omaggio alla celebre informatica militare statunitense, fu una conferenza che fondò in collaborazione con la collega Telle Whitney, allo scopo di radunare un gran numero di donne del campo della tecnologia. Durante la prima conferenza nel 1994 a Washington DC ottennero una partecipazione di 500 donne.


L’Institute for Women and Technology invece, è una compagnia che venne creata da Anita ricalcando i suoi valori principali in merito alla diffusione e potenziamento dei mestieri tecnologici fra le donne. L’istituto che nel tempo si è accresciuto acquisendo rilevanza internazionale, svolge ancora oggi un ruolo importante nel consentire sviluppo, connessione e opportunità di accrescimento del ruolo delle donne che lavorano in campo tecnologico. Non mancano dunque incentivi alla formazione o premi come il Technical Leadership Abie Award. Un compenso di ben 20.000 dollari, assegnato durante le celebrazioni in onore di Grace Hopper, alle donne che hanno contribuito a creare e progettare prodotti o servizi tecnologici di grande rilevanza in campo sociale, del business o di grande impatto per la comunità femminile nella tecnologia. All’istituto è stato oggi aggiunto il nome della celebre informatica, in un omaggio importante di cui avere sempre memoria.

๏ปฟ

© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 14 agosto 2025
Il divario digitale indica la distanza tra chi ha accesso e competenze nell’uso delle tecnologie digitali e chi, invece, ne è escluso o limitato. Non si tratta solo di possedere un dispositivo o una connessione internet, ma anche di saper utilizzare efficacemente tali strumenti per informarsi, lavorare, studiare o partecipare alla vita sociale. Le cause del divario digitale sono molteplici: differenze economiche, geografiche, culturali e generazionali giocano un ruolo importante. Ad esempio, aree rurali con infrastrutture carenti, famiglie a basso reddito che non possono permettersi dispositivi adeguati, o persone che non hanno ricevuto una formazione digitale di base, rischiano di restare indietro. Le conseguenze possono essere significative: Esclusione sociale e culturale, con minori opportunità di accesso a servizi pubblici e informazione. Svantaggi economici, poiché molte professioni richiedono competenze digitali sempre più avanzate. Limitazioni educative, soprattutto per studenti che non dispongono di strumenti e connessione per seguire la didattica online. Ridurre il divario digitale richiede un approccio integrato. Alcune azioni possibili includono: Potenziamento delle infrastrutture, garantendo connessioni veloci anche nelle zone remote. Accessibilità economica, con agevolazioni per dispositivi e abbonamenti internet. Formazione diffusa, per fornire competenze digitali a tutte le fasce di popolazione, con particolare attenzione a anziani e persone svantaggiate. Colmare questa distanza non significa solo fornire tecnologia, ma anche assicurare che tutti possano usarla in modo consapevole e sicuro. In un mondo sempre più interconnesso, l’inclusione digitale è una condizione essenziale per garantire pari opportunità e partecipazione attiva nella società.
Autore: by Antonello Camilotto 14 agosto 2025
Quando Neil Armstrong e Buzz Aldrin misero piede sulla superficie lunare nel 1969, la missione Apollo 11 era sostenuta da un’impressionante quantità di ingegneria, calcoli e tecnologia. Tuttavia, ciò che oggi sorprende di più non è tanto la complessità della missione, quanto il fatto che la potenza di calcolo del computer di bordo dell’Apollo Guidance Computer (AGC) fosse nettamente inferiore a quella di uno smartphone moderno. Il cervello della missione Apollo: l’AGC L’AGC, sviluppato dal MIT Instrumentation Laboratory, aveva specifiche che oggi sembrano quasi comiche: Processore: 1 MHz di clock Memoria: 2 KB di RAM e 36 KB di memoria a sola lettura (ROM) Prestazioni: circa 85.000 operazioni al secondo Eppure, quell’hardware limitato era sufficiente per guidare un’astronave dalla Terra alla Luna e ritorno, grazie a un software ottimizzato e a un utilizzo estremamente mirato delle risorse. Uno smartphone di oggi: un supercomputer in tasca Prendiamo ad esempio un comune smartphone di fascia media del 2025: Processore: multi-core a oltre 2,5 GHz RAM: 6-12 GB Memoria interna: 128-512 GB Prestazioni: miliardi di operazioni al secondo In termini puramente numerici, un moderno smartphone è milioni di volte più potente dell’AGC in velocità di calcolo, capacità di memoria e larghezza di banda. Perché allora è stato possibile andare sulla Luna con così poca potenza? La risposta sta nella differenza tra potenza grezza e progettazione ottimizzata: Gli ingegneri dell’epoca scrivevano codice estremamente efficiente, privo di sprechi. L’AGC eseguiva solo funzioni essenziali: calcoli di traiettoria, gestione dei sensori, correzioni di rotta. Gran parte del “lavoro” era affidata all’intelligenza umana, non a calcoli automatici continui. Oggi, invece, la potenza di calcolo dei nostri dispositivi è in gran parte usata per elaborazioni grafiche, interfacce complesse, app sempre in esecuzione e funzioni multimediali. Una riflessione finale Dire che “il nostro smartphone è più potente del computer della missione Apollo” è vero, ma rischia di essere fuorviante. La conquista della Luna non è stata una sfida di hardware, ma di ingegno, pianificazione e coraggio. Forse, la vera domanda non è “quanta potenza abbiamo in tasca?”, ma “cosa facciamo con essa?”.
Autore: by Antonello Camilotto 14 agosto 2025
Con l’esplosione delle videoconferenze negli ultimi anni, soprattutto durante i periodi di lockdown, è emerso un fenomeno tanto inquietante quanto fastidioso: lo Zoombombing. Il termine deriva dalla piattaforma Zoom, una delle più utilizzate a livello globale, ma oggi viene usato per indicare qualsiasi irruzione non autorizzata in una riunione online, indipendentemente dal servizio utilizzato. L’atto è semplice nella sua dinamica, ma spesso devastante nei suoi effetti: un individuo, non invitato, riesce ad accedere a una videochat privata e inizia a interrompere la conversazione, proiettare contenuti offensivi, pronunciare insulti o diffondere materiale inappropriato. In molti casi si tratta di scherzi di cattivo gusto, ma in altri episodi la situazione degenera in vere e proprie molestie digitali. Il fenomeno ha avuto il suo picco durante il 2020, quando scuole, università, aziende e persino eventi culturali si sono spostati online. Link pubblici o condivisi sui social senza protezione diventavano porte spalancate per chiunque volesse entrare. La semplicità di accesso, unita all’assenza iniziale di misure di sicurezza robuste, ha reso le piattaforme particolarmente vulnerabili. Casi emblematici e rischi legali Non sono mancati episodi di cronaca. In alcune scuole, lezioni virtuali sono state interrotte da intrusi che trasmettevano video violenti o pornografici, costringendo insegnanti e studenti a interrompere immediatamente l’attività. In altri contesti, riunioni aziendali riservate sono state sabotate, con possibili fughe di informazioni sensibili. Dal punto di vista legale, lo Zoombombing può configurarsi come violazione della privacy, accesso abusivo a sistemi informatici o, nei casi più gravi, diffusione di materiale illecito. In diversi paesi, Italia inclusa, tali azioni sono perseguibili penalmente. Perché avviene e come prevenirlo Alla base dello Zoombombing ci sono spesso motivazioni banali: desiderio di visibilità, noia, volontà di disturbare o provocare reazioni. Tuttavia, la facilità con cui può essere messo in atto lo rende appetibile anche per chi ha intenzioni malevole. Gli esperti di sicurezza digitale raccomandano alcune contromisure: Protezione con password: ogni riunione dovrebbe essere accessibile solo previa autenticazione. Sale d’attesa: funzione che consente all’organizzatore di ammettere manualmente ogni partecipante. Link privati: mai condividere i collegamenti in spazi pubblici o sui social. Aggiornamenti software: le piattaforme rilasciano regolarmente patch di sicurezza per correggere vulnerabilità. Moderazione attiva: nominare co-host in grado di espellere rapidamente eventuali intrusi. Uno specchio della fragilità digitale Lo Zoombombing non è soltanto un fastidio tecnico, ma il sintomo di una fragilità più ampia: la nostra dipendenza dalle comunicazioni online e la scarsa consapevolezza delle misure di protezione necessarie. In un’epoca in cui il lavoro da remoto e l’apprendimento a distanza sono sempre più diffusi, garantire la sicurezza delle interazioni virtuali è essenziale per tutelare non solo la produttività, ma anche la dignità e il benessere psicologico dei partecipanti. In definitiva, la prevenzione resta l’arma più efficace. Non basta affidarsi alla tecnologia: serve un cambiamento culturale che metta la sicurezza digitale al centro delle nostre abitudini online. Perché se è vero che il web ci unisce, è altrettanto vero che, senza difese adeguate, può spalancare la porta a ospiti indesiderati.
Autore: by Antonello Camilotto 14 agosto 2025
Quando si parla di Tor (The Onion Router), il pensiero corre subito a un simbolo di privacy, anonimato e libertà di espressione online. Eppure, la sua origine affonda le radici in un contesto molto diverso: un progetto sviluppato all’interno di agenzie militari statunitensi, con l’obiettivo iniziale di proteggere le comunicazioni governative sensibili. La parabola di Tor — dal laboratorio militare alla difesa globale dei diritti digitali — è una storia complessa, fatta di innovazioni tecnologiche, tensioni geopolitiche e battaglie per la libertà. Origini militari: la nascita dell’Onion Routing L’idea alla base di Tor prende forma a metà degli anni ’90 presso il Naval Research Laboratory (NRL), un centro di ricerca della Marina degli Stati Uniti. Il problema da risolvere era chiaro: garantire comunicazioni anonime e sicure in un contesto di crescente sorveglianza informatica. I ricercatori Paul Syverson, Michael G. Reed e David Goldschlag svilupparono un sistema chiamato Onion Routing, in cui i dati venivano incapsulati in più strati di crittografia (come una cipolla), passando attraverso nodi intermedi distribuiti nel mondo. Ogni nodo conosceva solo l’indirizzo del nodo precedente e di quello successivo, ma non l’intero percorso, rendendo quasi impossibile tracciare l’origine del traffico. L’apertura al pubblico: una mossa strategica Negli anni 2000, il progetto Onion Routing evolve in Tor, sostenuto dalla DARPA e poi finanziato da vari enti governativi. A questo punto emerge un paradosso: se solo il governo USA avesse usato Tor, sarebbe stato semplice identificarne il traffico come “sensibile”. La soluzione? Aprire il sistema a chiunque, rendendo più difficile distinguere tra utenti governativi e civili. Nel 2002 viene rilasciata la prima versione pubblica di Tor e, nel 2006, nasce la Tor Project Inc., un’organizzazione no-profit indipendente, che inizia a ricevere anche fondi da organizzazioni per i diritti digitali e fondazioni private. Dal controllo all’emancipazione: Tor come strumento di libertà Con l’avvento dei social media e la crescente sorveglianza statale e aziendale, Tor inizia a essere adottato da attivisti, giornalisti, dissidenti politici e semplici cittadini preoccupati per la propria privacy. Episodi chiave ne cementano la reputazione: Primavera Araba (2010-2012): attivisti in Egitto, Tunisia e Siria lo usano per comunicare senza rischiare l’identificazione. Rivelazioni di Edward Snowden (2013): confermano l’ampiezza della sorveglianza di massa, spingendo molti verso Tor. Accesso in paesi censurati: in Cina, Iran e altri stati autoritari, Tor diventa uno degli strumenti più efficaci per aggirare il “Great Firewall” e simili sistemi di censura. Ombre e controversie: il lato oscuro della privacy La protezione offerta da Tor non viene usata solo per cause nobili. La dark web, accessibile attraverso Tor, ospita anche mercati illeciti, forum criminali e attività di hacking. Questa ambiguità ha alimentato critiche, spingendo governi e forze dell’ordine a tentare di limitarne o monitorarne l’uso. Tuttavia, i sostenitori di Tor ribadiscono che la tecnologia è neutrale: è l’uso che ne fanno le persone a determinare il fine, e limitare lo strumento per le azioni di pochi significherebbe privare milioni di persone di un diritto fondamentale. Evoluzione tecnologica e sfide future Oggi Tor è una rete globale composta da migliaia di nodi gestiti da volontari. La tecnologia continua a evolversi per contrastare nuove forme di sorveglianza e censura, come: Bridges: nodi “non pubblici” che aiutano gli utenti in paesi fortemente censurati. Pluggable Transports: protocolli che mascherano il traffico Tor per sembrare “normale” traffico web. Progetti mobile: app e browser per smartphone che rendono Tor accessibile anche in mobilità. Le sfide rimangono imponenti: dall’aumento delle risorse necessarie per mantenere la rete veloce e stabile, fino al rischio di infiltrazioni governative nei nodi di uscita. La storia di Tor dimostra come una tecnologia nata in ambito militare possa trasformarsi in uno degli strumenti più importanti per la difesa della libertà digitale nel XXI secolo. Se da un lato le sue radici governative possono sorprendere, dall’altro la sua evoluzione testimonia che la tecnologia, una volta resa pubblica, può sfuggire al controllo dei suoi creatori e diventare patrimonio dell’umanità. ๏ปฟ In un’epoca in cui la sorveglianza è sempre più pervasiva, Tor non è solo un software: è un simbolo della possibilità di opporsi, proteggere la propria identità e rivendicare il diritto di comunicare senza paura.
Autore: by Antonello Camilotto 14 agosto 2025
Negli ultimi anni i social media sono diventati uno dei principali canali di informazione — e, allo stesso tempo, un terreno fertile per la disinformazione. L’ampiezza della loro portata, la velocità di condivisione e il meccanismo degli algoritmi rendono queste piattaforme estremamente efficaci nel far circolare contenuti, indipendentemente dalla loro veridicità. Meccanismi di propagazione La disinformazione si diffonde in modi diversi, spesso combinando più fattori: Condivisione virale: titoli sensazionalistici o notizie “scioccanti” spingono gli utenti a condividere impulsivamente senza verificare le fonti. Algoritmi di raccomandazione: le piattaforme privilegiano i contenuti che generano interazioni (like, commenti, condivisioni), favorendo anche post fuorvianti se riescono a suscitare emozioni forti. Echo chambers: le comunità online tendono a riunire persone con idee simili, creando bolle informative che rinforzano credenze preesistenti e riducono l’esposizione a punti di vista diversi. Bot e account falsi: automatismi e profili fasulli possono amplificare artificialmente un contenuto, facendolo apparire più popolare o credibile. Perché funziona La disinformazione prospera grazie a caratteristiche psicologiche e sociali: Bias cognitivi: come il confirmation bias, che ci porta a credere più facilmente a ciò che conferma le nostre opinioni. Emozioni forti: paura, indignazione e sorpresa aumentano la propensione alla condivisione. Overload informativo: la quantità enorme di contenuti spinge a una lettura rapida e poco critica. Autorevolezza percepita: se un contenuto proviene da una persona conosciuta o da un influencer, tende a essere considerato più attendibile. 3. Conseguenze sociali La diffusione di disinformazione non è solo un problema di verità o menzogna, ma ha effetti concreti: Polarizzazione politica e divisioni sociali. Erosione della fiducia nelle istituzioni e nei media tradizionali. Comportamenti dannosi, come la diffusione di cure mediche non verificate o la partecipazione a movimenti complottisti. Possibili soluzioni Ridurre la disinformazione richiede azioni coordinate: Educazione digitale e mediatica: sviluppare la capacità di verificare le fonti e riconoscere manipolazioni. Maggiore trasparenza algoritmica: rendere più chiaro come vengono selezionati e promossi i contenuti. Segnalazioni e fact-checking: integrare strumenti per segnalare contenuti falsi e collaborare con verificatori indipendenti. Responsabilità delle piattaforme: rafforzare politiche di moderazione e rimuovere sistematicamente i contenuti ingannevoli.
Autore: by Antonello Camilotto 13 agosto 2025
Tra le tante storie che circolano nel mondo dei videogiochi, poche hanno raggiunto lo status di mito come quella di Polybius. Secondo la leggenda urbana, nei primi anni ’80, in alcune sale giochi di Portland, Oregon, comparve un cabinato arcade mai visto prima. Il gioco, dal titolo enigmatico Polybius, avrebbe provocato effetti collaterali inquietanti sui giocatori: perdita di memoria, incubi ricorrenti, nausea, e persino comportamenti ossessivi. Il racconto prosegue con dettagli da spy-story: uomini in giacca e cravatta – identificati come agenti governativi – avrebbero regolarmente prelevato i dati delle macchine, non per scopi commerciali, ma per esperimenti di controllo mentale. Per alcuni, dietro il progetto ci sarebbe stata la CIA; per altri, un’agenzia governativa segreta. Tuttavia, a distanza di decenni, non è mai emersa alcuna prova concreta dell’esistenza di Polybius. Nessun cabinato originale è stato trovato, nessun documento ufficiale ne conferma lo sviluppo, e i presunti testimoni riportano versioni discordanti. Gli storici dei videogiochi ritengono che la storia sia nata dalla fusione di fatti reali – come test di prototipi nelle sale giochi e monitoraggi da parte delle autorità – con fantasie alimentate da internet e riviste specializzate. Oggi Polybius vive soprattutto come fenomeno di cultura pop: è stato citato in serie TV, fumetti, documentari e persino riprodotto da appassionati come gioco “ispirato” alla leggenda. La sua forza sta proprio nell’essere un mistero irrisolto, a metà strada tra paranormale, tecnologia e paranoia da Guerra Fredda. In definitiva, Polybius sembra più una storia nata per intrattenere e suggestionare che un vero esperimento di manipolazione mentale. Ma, come per tutte le leggende metropolitane, il dubbio resta… ed è forse questo il motivo per cui la sua fama continua a crescere.
Mostra Altri