Alan Turing e le teorie di “on computable numbers”

by Antonello Camilotto

Alan Turing è una figura fondamentale nella storia della scienza e della tecnologia, noto per il suo contributo rivoluzionario nell’ambito della matematica, della logica e dell’informatica. Una delle sue opere più influenti è senza dubbio il saggio del 1936, “On Computable Numbers, with an Application to the Entscheidungsproblem”. Questo lavoro gettò le basi teoriche per la nascita dell’informatica moderna, introducendo concetti che avrebbero trasformato il modo in cui l’umanità concepisce il calcolo e l’automazione.


Il saggio fu scritto in risposta al cosiddetto Entscheidungsproblem, o "problema della decisione", un quesito posto dal matematico David Hilbert. L’obiettivo era determinare se fosse possibile sviluppare un metodo meccanico in grado di risolvere ogni problema matematico esprimibile in linguaggio formale. Turing affrontò questa questione definendo un modello astratto di calcolo, oggi noto come "macchina di Turing".


La macchina di Turing è un dispositivo teorico costituito da un nastro infinito suddiviso in celle, ciascuna delle quali può contenere un simbolo. Un “testa” di lettura/scrittura si muove lungo il nastro, leggendo e modificando i simboli secondo un insieme di regole predefinite. Questo modello estremamente semplice si è rivelato capace di rappresentare qualsiasi processo computazionale che può essere eseguito meccanicamente. La sua potenza risiede nella generalità: ogni problema risolvibile algoritmicamente può essere simulato da una macchina di Turing.


Turing dimostrò che non tutti i numeri sono "computabili", cioè non esiste un algoritmo che possa generare ogni numero reale. Per esempio, alcuni problemi matematici non hanno soluzione computabile, come il famoso problema dell’arresto. Questo problema riguarda la possibilità di determinare, dato un programma e un input, se il programma terminerà o continuerà a funzionare indefinitamente. Turing dimostrò che non esiste un metodo generale per risolverlo, un risultato che ha implicazioni profonde per la teoria della computazione.

Il lavoro di Turing non si limitò al mondo astratto della teoria. Durante la Seconda Guerra Mondiale, il suo genio trovò applicazioni pratiche nella crittoanalisi. A Bletchley Park, guidò il team che sviluppò il dispositivo Bombe, usato per decifrare i messaggi cifrati dalla macchina Enigma dei tedeschi. Questo contributo accelerò significativamente la fine del conflitto.


Le implicazioni del saggio "On Computable Numbers" vanno ben oltre la matematica. Ha aperto la strada alla creazione dei primi computer elettronici e ha influenzato campi come l’intelligenza artificiale, la teoria dell’informazione e la filosofia della mente. Turing stesso anticipò alcune delle domande fondamentali dell’intelligenza artificiale nel suo famoso articolo del 1950, in cui propose quello che oggi chiamiamo "Test di Turing" per valutare la capacità di una macchina di mostrare comportamenti intelligenti.


La genialità di Turing ha lasciato un’eredità immensa, ma la sua vita personale fu tragicamente segnata dalle persecuzioni dovute alla sua omosessualità, allora considerata un reato nel Regno Unito. La sua morte prematura nel 1954 privò il mondo di una delle menti più brillanti del XX secolo. Tuttavia, il suo lavoro continua a ispirare e a plasmare il futuro, rendendolo una delle figure più celebrate nella storia della scienza e della tecnologia.


© 𝗯𝘆 𝗔𝗻𝘁𝗼𝗻𝗲𝗹𝗹𝗼 𝗖𝗮𝗺𝗶𝗹𝗼𝘁𝘁𝗼

Tutti i diritti riservati | All rights reserved



Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 3 novembre 2025
Adrián Alfonso Lamo Atwood, conosciuto come Adrian Lamo, nacque il 20 febbraio 1981 a Malden, nel Massachusetts. Cresciuto tra una curiosità precoce per la tecnologia e un profondo spirito indipendente, fin da giovane mostrò un’inclinazione naturale verso i computer e la programmazione. Il suo primo contatto con l’informatica avvenne grazie a un Commodore 64, con cui iniziò a sperimentare piccoli programmi e modifiche ai videogiochi che amava. Dopo aver frequentato il liceo a San Francisco, abbandonò gli studi in seguito a diversi contrasti con i docenti. Tentò poi un percorso in giornalismo all’American River College di Carmichael, in California, ma la sua vera formazione avvenne da autodidatta, nel mondo in continua evoluzione delle reti informatiche. Gli inizi e la scoperta dell’hacking Lamo iniziò la sua avventura nell’hacking con curiosità più che con intenzioni distruttive. Da adolescente si divertiva a manipolare giochi, creare virus su floppy disk e cimentarsi nel phreaking — l’arte di sfruttare le linee telefoniche per effettuare chiamate gratuite o restare anonimo. Queste prime esperienze lo portarono a comprendere il funzionamento profondo dei sistemi di comunicazione e ad appassionarsi sempre più al mondo nascosto dietro la rete. Negli anni ’90, con la diffusione di Internet, Adrian scoprì una nuova frontiera: il web aziendale. Spinto dal desiderio di esplorare e di comprendere, iniziò a testare i limiti di sicurezza di grandi compagnie, trovando vulnerabilità che spesso lasciavano attoniti i responsabili informatici. Non lo muoveva il desiderio di profitto, ma una sfida intellettuale. Faceva parte di quella che lui stesso definiva la “cultura hacker”: una comunità di menti curiose, convinte che la conoscenza dovesse essere libera e che ogni sistema potesse essere migliorato solo mettendolo alla prova. Il vagabondo digitale Per due anni Lamo visse come un nomade tecnologico. Viaggiava con uno zaino e un computer portatile, dormiva in edifici abbandonati o sui divani degli amici, e si collegava a Internet dalle biblioteche pubbliche o dai centri Kinko. Dalla Biblioteca Pubblica di San Francisco, trascorreva intere giornate ai terminali, connettendosi via telnet a sistemi remoti e affinando le proprie capacità. Questa vita errante lo rese una figura quasi leggendaria nella scena hacker: un giovane senza fissa dimora che riusciva, con mezzi minimi, a violare i sistemi informatici delle più grandi aziende del mondo. La fama e gli attacchi celebri All’inizio degli anni 2000, Lamo divenne noto per una serie di intrusioni in sistemi di alto profilo. Tra i suoi bersagli comparvero AOL, Yahoo, Microsoft e persino il New York Times. Il suo intento, come avrebbe più volte dichiarato, era quello di dimostrare quanto fosse fragile la sicurezza informatica anche nei colossi della comunicazione e della tecnologia. Nel 2002 il suo nome fece il giro del mondo: riuscì a penetrare nella rete interna del New York Times, ottenendo credenziali di amministratore e accesso a un database contenente i dati di oltre tremila collaboratori. Per ironia, si aggiunse egli stesso alla lista degli esperti del giornale come “esperto di hacking”. Una figura controversa La comunità hacker si divise sul suo conto. Per alcuni era un idealista che cercava di mettere in guardia le aziende dalle proprie debolezze; per altri, un traditore delle regole non scritte del mondo underground. Questa percezione divenne ancora più complessa negli anni successivi, quando venne etichettato da alcuni come “spia” per aver collaborato con le autorità in casi di rilievo. La morte e l’eredità Adrian Lamo morì il 14 marzo 2018, a soli 37 anni, in Kansas. La notizia fu diffusa dal padre attraverso un post su Facebook. Le circostanze della sua morte rimasero in parte avvolte nel mistero, e persino il medico legale non poté escludere completamente l’ipotesi di un atto violento. Nonostante la sua breve vita, Lamo lasciò un’impronta duratura nella storia dell’hacking. Era un esploratore dei limiti digitali, un anticonformista che cercava di dimostrare quanto fosse necessario prendere sul serio la sicurezza informatica. Figura controversa e affascinante, Adrian Lamo rimane simbolo di un’epoca in cui la curiosità e il desiderio di conoscenza potevano ancora cambiare il mondo – un hacker errante che trasformò la propria inquietudine in una sfida costante al sistema.
Autore: by Antonello Camilotto 3 novembre 2025
Nell’epoca delle conversazioni con i chatbot, delle traduzioni automatiche e dei testi generati dai modelli linguistici, sorge una domanda affascinante: qual è la lingua che l’intelligenza artificiale comprende meglio?  Dietro la patina di neutralità delle macchine si nasconde infatti una realtà più complessa. I sistemi di intelligenza artificiale, anche i più avanzati, non sono “poliglotti” nel senso umano del termine. La loro competenza linguistica dipende dalla quantità e dalla qualità dei dati con cui vengono addestrati. E in questa corsa al predominio linguistico, l’inglese resta nettamente in testa. La ragione è semplice: la maggior parte dei contenuti digitali – articoli, siti web, ricerche accademiche, conversazioni online – è scritta in inglese. Ciò fornisce ai modelli un’enorme base di conoscenze, permettendo loro di affinare sfumature grammaticali, lessicali e culturali con una precisione che altre lingue non possono ancora vantare. Le lingue europee più diffuse, come il francese, lo spagnolo e il tedesco, beneficiano a loro volta di un’ampia presenza nei dataset globali, seppure con un livello di accuratezza leggermente inferiore. Diverso il destino per idiomi meno rappresentati o dotati di strutture grammaticali complesse, come l’ungherese, il basco o molte lingue africane e asiatiche: in questi casi, le intelligenze artificiali faticano a cogliere contesti, proverbi e sfumature culturali. Negli ultimi anni, tuttavia, diversi centri di ricerca stanno lavorando per colmare il divario linguistico. L’obiettivo è quello di creare modelli più equi e realmente multilingue, capaci di comprendere e valorizzare la diversità linguistica del pianeta. Iniziative come i progetti open source di traduzione automatica e le collaborazioni tra università e aziende tecnologiche stanno gettando le basi per una nuova era del linguaggio artificiale. La sfida, insomma, non è solo tecnologica ma anche culturale: un’IA che comprenda tutte le lingue, comprese quelle parlate da piccole comunità, significherebbe un passo avanti verso un mondo digitale più inclusivo e democratico.
Autore: by Antonello Camilotto 3 novembre 2025
I codici QR sono diventati strumenti di uso quotidiano: li troviamo nei ristoranti per consultare i menu, nei negozi per ottenere sconti, nei musei per approfondire le opere, fino ai documenti ufficiali e ai biglietti elettronici. Tuttavia, dietro la loro apparente comodità, si nasconde anche un rischio: i QR code possono essere manipolati per indirizzare l’utente verso siti pericolosi o truffe online. Ecco quindi alcuni suggerimenti per capire se un QR code è affidabile e come proteggersi. 1. Verificare la fonte Il primo passo è chiedersi dove si trova il QR code. Se è su un sito ufficiale, un documento aziendale o un prodotto riconosciuto, è probabile che sia sicuro. Se invece si trova su un volantino anonimo, un manifesto pubblico o un messaggio ricevuto via e-mail o chat, è bene diffidare: chiunque può stampare un QR code e applicarlo sopra uno autentico. 2. Controllare l’aspetto del codice Un QR code manomesso può avere segni evidenti, come un’etichetta sovrapposta o un adesivo non perfettamente allineato. Nei luoghi pubblici, come fermate degli autobus o vetrine, vale la pena verificare che il codice non sembri incollato sopra un altro o alterato. 3. Usare un’app di scansione sicura Molti smartphone moderni integrano la scansione dei QR code nella fotocamera, ma esistono anche applicazioni che mostrano l’anteprima del link prima di aprirlo. Questo permette di vedere l’indirizzo web e capire se è attendibile. Diffidate dei link abbreviati (come bit.ly o tinyurl), perché nascondono la destinazione reale. 4. Controllare l’indirizzo web Dopo la scansione, osservate attentamente il dominio: deve corrispondere al nome dell’ente o dell’azienda ufficiale. Un piccolo errore di ortografia (come “gooogle.com” o “p0stag.it”) può indicare un sito fraudolento. In caso di dubbi, meglio non cliccare. 5. Attenzione alle richieste sospette Un QR code non dovrebbe mai chiedere dati personali, bancari o password. Se dopo la scansione compare un modulo di login o una richiesta di pagamento, è bene fermarsi subito e verificare la legittimità della pagina. 6. Utilizzare un antivirus aggiornato Molti software di sicurezza per smartphone e computer possono bloccare automaticamente i siti pericolosi aperti da QR code. Avere un antivirus aggiornato è quindi un’ulteriore barriera contro le truffe digitali. I QR code sono uno strumento utile e veloce, ma come ogni tecnologia vanno utilizzati con consapevolezza. Prima di scansionare, è sempre bene chiedersi: mi fido della fonte? Un piccolo controllo in più può evitare grandi problemi di sicurezza.
Autore: by Antonello Camilotto 3 novembre 2025
Gli attacchi informatici evolvono con una rapidità impressionante. Tra le minacce più subdole e difficili da individuare spiccano gli attacchi zero-click, una categoria di exploit che non richiede alcuna interazione da parte dell’utente per compromettere un dispositivo o un account. Queste tecniche rappresentano un pericolo crescente, soprattutto per la loro capacità di passare inosservate anche ai sistemi di sicurezza più sofisticati. Che cosa sono gli attacchi zero-click Un attacco zero-click è una forma di intrusione che sfrutta vulnerabilità presenti in applicazioni o sistemi operativi, senza richiedere che la vittima compia alcuna azione, come cliccare su un link o aprire un allegato. Basta, ad esempio, ricevere un messaggio, una chiamata o una notifica per attivare l’exploit. Questo tipo di attacco è particolarmente insidioso perché elimina l’anello debole più comune della sicurezza informatica: l’errore umano. Come funzionano Gli attacchi zero-click si basano su vulnerabilità di tipo zero-day, cioè difetti di sicurezza sconosciuti ai produttori del software al momento dell’attacco. Gli aggressori individuano e sfruttano questi punti deboli per eseguire codice malevolo sul dispositivo della vittima. In molti casi, l’attacco avviene attraverso servizi di messaggistica o comunicazione come iMessage, WhatsApp o MMS: basta ricevere un messaggio contenente dati strutturati in modo anomalo per attivare il codice exploit. Una volta compromesso il sistema, l’aggressore può ottenere accesso completo al dispositivo, alle conversazioni, ai file, ai contatti e persino alla fotocamera e al microfono. Esempi noti Uno dei casi più noti è quello legato al software di sorveglianza Pegasus, sviluppato dalla società israeliana NSO Group. Pegasus è stato utilizzato in diversi contesti per spiare giornalisti, attivisti e politici, sfruttando vulnerabilità zero-click di applicazioni come iMessage. Anche se Apple e altri produttori hanno poi rilasciato patch correttive, questi episodi hanno mostrato quanto possano essere pericolosi gli attacchi di questo tipo. Perché sono difficili da individuare Gli attacchi zero-click non lasciano quasi tracce evidenti. Poiché non richiedono interazione, non esistono log di clic o comportamenti sospetti che possano far scattare un allarme. Spesso solo un’analisi forense approfondita del dispositivo può rivelare l’avvenuta compromissione. Questo li rende strumenti ideali per operazioni di spionaggio e sorveglianza mirata. Come proteggersi Anche se nessuna misura è completamente efficace contro le vulnerabilità sconosciute, è possibile ridurre il rischio seguendo alcune buone pratiche: mantenere sempre aggiornato il sistema operativo e le applicazioni; installare solo app provenienti da fonti ufficiali; limitare i permessi delle app, soprattutto l’accesso a fotocamera, microfono e messaggi; utilizzare sistemi di sicurezza avanzati e soluzioni di monitoraggio comportamentale; essere consapevoli che anche un dispositivo apparentemente “sicuro” può essere vulnerabile. Gli attacchi zero-click rappresentano una delle frontiere più avanzate e pericolose del cybercrimine. Il loro carattere invisibile e l’assenza di interazione da parte dell’utente li rendono difficili da prevenire e individuare. La sfida per il futuro sarà quindi quella di sviluppare sistemi in grado di rilevare comportamenti anomali a livello profondo del software, unendo tecniche di intelligenza artificiale e sicurezza proattiva per contrastare minacce che non danno neppure il tempo di un clic.
Autore: by Antonello Camilotto 2 novembre 2025
Esiste un progetto che può essere definito come un “archivio universale dei codici sorgente”: è il Software Heritage. Che cos’è Software Heritage Software Heritage è un’organizzazione senza scopo di lucro che ha come missione «raccogliere, preservare e condividere» tutto il software disponibile pubblicamente in forma di codice sorgente. Il progetto è stato lanciato dall’Inria (Istituto nazionale francese per la ricerca in informatica e matematica applicata) nel 2016, in collaborazione con l’UNESCO e altri partner. L’archivio raccoglie codice sorgente da piattaforme di sviluppo e repository pubblici (es. GitHub, GitLab) e package repository (es. npm, PyPI) per preservare la storia del software. Perché “universale” e perché è importante “Universale” nel senso che mira a conservare tutto il codice sorgente pubblico, indipendentemente dal linguaggio o dalla piattaforma. È importante perché il codice sorgente è parte integrante del patrimonio culturale e tecnico: sapere come è stato scritto, cosa fa e come si evolve, è utile per la ricerca, la riproducibilità scientifica, la trasparenza, la sicurezza. In particolare, offre una base per lo “studio dei Big Code” (ossia analizzare su larga scala i codici sorgente) e per applicazioni quali l’intelligenza artificiale, la conservazione digitale, la tracciabilità. Alcuni numeri e caratteristiche salienti L’archivio contiene decine di miliardi di file di codice sorgente, provenienti da centinaia di milioni di progetti software. Ogni entità (file, directory, commit, progetto) ha un identificatore univoco, lo “SWHID” (Software Heritage ID), che aiuta a referenziare e tracciare il codice. In Italia, il ENEA (Centro Ricerche di Bologna) ospita uno dei mirror istituzionali europei dell’archivio, consentendo la ridondanza e la conservazione locale. A chi serve e come può essere utilizzato Ricercatori: per studi storici sul software, sull’evoluzione dei linguaggi, delle librerie, degli algoritmi. Industria / Open Source: per garantire che del codice importante non vada perso, per facilitare la ri‐utilizzazione, per motivi di audit o sicurezza. Educazione: studenti o professionisti possono esplorare codice storico, versioni, commit, per imparare. Policy / Strategia nazionale: dato che il software è infrastruttura critica, conservarlo apre questioni di autonomia digitale e resilienza. Limitazioni e note pratiche L’archivio comunque prende codice che è pubblicamente disponibile; non tutti i software proprietari chiusi o privati saranno inclusi. Anche se “universale” nell’intento, ci sono limiti tecnici, legali e finanziari a quanto possa effettivamente coprire. L’uso richiede comunque familiarità con il concetto di repository, versioning, etc; non è solo “scarica e usa” come libreria comune. Per un uso pratico, serve verificare licenze, condizioni di riuso del codice contenuto — l’archivio conserva il codice, ma non sempre cambia le licenze originali.
Autore: by Antonello Camilotto 1 novembre 2025
Negli anni ’90 Internet cominciava a entrare nelle case e negli uffici, ma era ancora un territorio nuovo e misterioso. Oggi bastano pochi secondi per essere online, ma trent’anni fa collegarsi significava affrontare una vera e propria avventura tecnologica, fatta di modem rumorosi, linee telefoniche occupate e pazienza infinita. I primi passi nel mondo digitale All’inizio degli anni ’90, in Italia come nel resto del mondo, la rete non era ancora accessibile a tutti. Le università e alcune grandi aziende erano collegate tramite reti accademiche o interne, ma per il pubblico arrivarono i primi provider commerciali: società che offrivano, dietro pagamento di un abbonamento, la possibilità di “entrare” in Internet. Tra i pionieri italiani si ricordano nomi come MC-link, Video On Line, InWind, Tiscali e Tin.it. Erano gli anni in cui gli utenti scoprivano la posta elettronica, i primi forum e le chat IRC, strumenti che avrebbero cambiato per sempre il modo di comunicare. Il rito del modem e il suono della connessione Per collegarsi serviva un computer con modem analogico, di solito a 14.4 o 28.8 kbps, che si collegava alla presa del telefono. La connessione era “dial-up”: il modem componeva un numero, stabiliva la comunicazione e solo allora si poteva navigare. Il tipico suono gracchiante del modem che tentava di agganciarsi alla linea è rimasto un simbolo indelebile di quell’epoca. Navigare significava anche occupare la linea telefonica: durante la connessione nessuno poteva fare o ricevere chiamate, e ogni minuto aveva un costo. Per molti, la sera tardi o la notte erano gli unici momenti “sicuri” per esplorare la rete senza rischiare la bolletta salata. Contenuti e comunità: un Internet più piccolo, ma più intimo I siti web degli anni ’90 erano semplici, leggeri e spesso amatoriali. Le immagini si caricavano lentamente, e le pagine erano dominate dal testo. Non esistevano i social network: le comunità online si ritrovavano nei newsgroup, nelle mailing list o nelle chat IRC, dove si parlava di tutto, dall’informatica alla musica, dal cinema ai giochi. Era un Internet più ingenuo, ma anche più partecipativo: chi sapeva un po’ di HTML poteva creare una pagina personale su Geocities o Tripod e contribuire direttamente alla crescita del web. L’evoluzione verso la banda larga Con la fine degli anni ’90 arrivarono le connessioni ISDN e poi l’ADSL, che permisero di restare online senza bloccare il telefono e a velocità impensabili fino a poco tempo prima. Da quel momento Internet smise di essere un’esperienza “da pionieri” e cominciò a diventare parte della vita quotidiana. Un’epoca che ha fatto scuola Oggi Internet è ovunque, ma chi ha vissuto gli anni ’90 ricorda quella sensazione di scoperta e di libertà dei primi collegamenti. Ogni pagina caricata era una conquista, ogni e-mail un piccolo miracolo tecnologico. I primi provider e gli utenti di allora hanno gettato le basi del mondo connesso che conosciamo oggi.
Mostra Altri