Open Source: significato e storia

by antonellocamilotto.com


Quando si definisce un software "libero", si intende che rispetta le libertà essenziali degli utenti: la libertà di eseguire il programma, di studiare il programma e di ridistribuire delle copie con o senza modifiche.


Originariamente, il termine open source si riferiva al software open source (OSS, Open Source Software).


Il software open source è un codice progettato per essere accessibile pubblicamente. Chiunque può vederlo, modificarlo e distribuirlo secondo le proprie necessità.


Viene sviluppato tramite un approccio decentralizzato e collaborativo, che si basa sulla "peer review", ovvero le revisioni condotte dai colleghi e professionisti IT, e sul lavoro della community. Poiché sviluppato dalle community e non da una singola azienda o individuo, il software open source risulta essere una soluzione più economica, flessibile e longeva rispetto ai software proprietari.


Parlare di Linux, Android, Apache, sono solo alcuni dei nomi che usiamo nel quotidiano, divenuti di gergo comune, ma che dietro alle loro community di sviluppatori che li hanno realizzati, c’è un'intensa e convulsa storia che è interessante conoscere, soprattutto se si lavora nel comparto IT dove il concetto di open source sta rivoluzionando il mercato del software.


La storia dell’open source, poggia le sue basi molto lontano, quando agli albori dell’informatica, programmatori e sviluppatori condividevano il software per imparare gli uni dagli altri e per far evolvere il campo dell’informatica.


Si è parlato molto del Tech Model Railroad Club dell’MIT, della comunità hacker, ma anche dei dipartimenti di intelligenza artificiale del MIT e della Stanford University. Gli accademici, da sempre hanno collaborato per un fine comune ovvero accrescere le proprie competenze e quindi le competenze di tutti, per migliorare l’intero sistema, pensando che il contributo di ogni singolo possa portare ad un enorme vantaggio al risultato finale per tutta la comunità.


Infatti, dagli anni ’50 fino all’inizio degli anni ’70, era normale per gli utenti di computer disporre di software libero, quindi aperto, condiviso tra le persone che usavano i computer i quali in quel periodo storico erano prodotti di nicchia, appannaggio delle università e delle grandi organizzazioni.


I costi del software aumentano


All’epoca il business era la vendita dell’hardware e quindi i produttori di computer apprezzavano il fatto che le persone creavano e distribuivano il software che a sua volta rendeva il loro hardware utile ad un determinato scopo.


Ma all’inizio degli anni ’70, la complessità del software e i costi ad esso collegati aumentarono drasticamente, e l’industria del software in forte crescita era in competizione con i prodotti software in bundle realizzati dai fornitori di hardware, che risultavano gratuiti in quanto il loro costo era incluso nel costo dell’hardware.


Nel 1969, il governo degli Stati Uniti d’America disse che il software in bundle risultava anti concorrenziale, e da lì in avanti tutto cambiò e il software a pagamento iniziò la sua escalation fino ad arrivare all’estensione al software della legge sul copyright nel 1980.


Le Free Software Foundation


Richard Stallman, membro della comunità hacker e del laboratorio di intelligenza artificiale del MIT, nonché autore di molti software, nel 1983 intravedendo profeticamente che l’informatica sarebbe divenuta in un prossimo futuro un controllo delle persone, pensò e formulò il concetto di diritti e libertà digitali degli utenti e così decise di avviare un progetto di scrittura di un sistema operativo NON proprietario dal nome GNU (acronimo ricorsivo di "GNU's Not Unix", un sistema operativo Unix-like, ideato nel 1984 da Richard Stallman e promosso dalla Free Software Foundation), in quanto non voleva accettare accordi di NON divulgazione avrebbero comportato la mancata condivisione del codice sorgente, legge non scritta, ma alla base della cultura hacker, nata per altro al MIT.


Quindi un anno dopo, ad ottobre del 1984, prese vita la “Free software Foundation” e la logica del copyleft, ovvero l’esatto opposto del copyright, e quindi l’incentivazione alla divulgazione e la condivisione del codice sorgente tramite la famosa GPL (GNU Public License) una licenza che fornisse garanzie a tutela degli utenti, scritta secondo leggi internazionali.


Il concetto era semplice e nello stesso tempo rivoluzionario. Dove va il codice sorgente Free, va anche la libertà di copiarlo, modificarlo, condividerlo senza poterlo mai chiudere in software proprietario.


Tenete sempre in considerazione questo importante tassello nella storia dell’informatica, lo ritroveremo ogni volta che si parlerà della logica della disclosure pubblica, delle attività di bug hunting e quindi nella divulgazione e nella trasparenza sulle vulnerabilità rilevate nei prodotti software.


Il kernel di GNU e il progetto Linux


Intanto uno studente, Linus Torvalds, mentre frequentava l’università di Helsinki, stanco dei limiti della licenza del sistema operativo MINIX, che ne limitava il suo utilizzo solo in ambito didattico, iniziò a scrivere un proprio kernel (nucleo o cuore di un sistema operativo) con l’aiuto di altri hacker disseminati in giro per il pianeta.


All’inizio era solo un emulatore di terminale che poi piano piano, utilizzando software liberi del progetto GNU, come il compilatore GCC, le librerie, la bash, studiando le specifiche POSIX (termine tra l’altro coniato da Richard Stallman per definire gli standard per un sistema operativo) riuscì a produrre la prima versione del kernel Linux 0.0.1, senza interfaccia grafica, che fu pubblicata su Internet il 17 settembre 1991 e la seconda nell’ottobre dello stesso anno.


Nel 1991, avvenne una vera e propria “scossa tellurica” nel mondo dell’informatica, inizialmente piccola, ma che poco a poco si rivelò vincente verso i big della Silicon Valley, in quanto dalla combinazione del kernel Linux e del progetto GNU, venne rilasciato il sistema operativo GNU/Linux distribuito sotto licenza GPL.


La cattedrale e il bazaar


Eric Steven Raymond, evangelista della Free Software Foundation, nel 1997 pubblico il libro “La cattedrale e il bazaar”, che illustrava le differenze tra free software e software commerciale.


Mentre per la Cattedrale ogni pezzo, prima di essere costruito deve essere validato da una commissione con evidenti rallentamenti ed inefficienze, al contrario il Baazar, è l’emporio della mentalità hacker e quindi delle nuove idee, dove ogni programmatore poteva contribuire a suo modo, utilizzando il software liberamente e gratuitamente.


Netscape Communicator diventa free software


Tutto iniziava ad evolversi rapidamente, infatti nel 1998, grazie a questo libro la Netscape Communications Corporation rilasciò la popolare suite Internet Mozilla (allora Netscape Communicator) come free software lasciando tutti a bocca aperta. Richard Stallman pensò e codificò nella GPL.


Un nuovo nome


Ma il termine “free software” per la sua intrinseca ambiguità (in inglese free vuol dire sia libero che gratuito), venne visto come scoraggiante dal punto di vista commerciale, oltre che un generatore di confusione, ecco che all’interno del movimento free software, venne proposto un nuovo termine, ovvero “open source”, ideato dalla meteorologa Christine Peterson nel 1998, assieme a Bruce Perens, Eric S. Raymond, Ockman che parlarono di Open Source per la prima volta già nel 1997.


Venne quindi effettuata una ridefinizione ideologica del software libero, evidenziandone anche i vantaggi pratici per le aziende che piacque molto e venne adottato da giganti del calibro di Netscape, IBM, Sun Microsystems e HP.


L’etichetta “open source” venne ufficialmente creata durante una sessione strategica tenutasi il 3 febbraio 1998 a Palo Alto, in California, subito dopo l’annuncio del rilascio del codice sorgente di Netscape. Oggi esiste la Open Source Initiative, partita proprio da quella conferenza nel 1998.


Differenze tra Free Software, Open Source e Software Chiuso


Quindi, sebbene Open source e free software siano modelli simili, c’è una sostanziale differenza. Definire genericamente un software come Open Source, significa che puoi guardare il suo codice sorgente, ma non necessariamente vengono garantite la libertà digitale della Free Software Foudation, perché esistono licenze come ad esempio la BSD che ti permette di prendere tale codice e chiuderlo in un software proprietario.


Per Free Software invece si intende software libero, quindi filosoficamente più puro, utilizzabile senza limitazioni nella libertà, ma esso non potrà mai diventare proprietario pena cause legali, penali ed economiche.


Il software chiuso o software proprietario o "a sorgente chiuso". Quest'ultimo, essendo altamente protetto, è accessibile solo dai proprietari del codice sorgente, che dispongono dei diritti legali esclusivi. Il codice sorgente chiuso, a livello legale, non è modificabile o riproducibile e l'utente paga per utilizzare il software "così com'è", senza poterlo alterare per nuovi utilizzi o condividerlo con le community.


Da li in poi la storia del movimento open source con le sue numerose licenze Apache, BSD, Mozilla, GPL, la conosciamo bene, tra convention, hacking, distribuzioni linux e software di ogni tipo, quello che ci ha insegnato tutto questo è che molte delle cose migliori che ha fatto l’uomo, sono state fatte attraverso la collaborazione e la trasparenza e la presenza di una solida comunità a contorno e che la logica del modello chiuso, in generale, prima o poi arriverà ad un declino.


Un dirigente di Microsoft disse pubblicamente nel 2001: "l’open source è un distruttore della proprietà intellettuale". Probabilmente in quel periodo poteva sembrare corretto pensarla in questo modo, ma oggi, risulta ancora applicabile?


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 24 aprile 2025
A sei anni, sanno già scrivere le prime righe di codice. A dieci, costruiscono robot con sensori e intelligenza artificiale di base. A dodici, partecipano a competizioni nazionali di programmazione. In Cina, il futuro non è domani: è oggi, ed è scritto nel linguaggio dell’algoritmo. Il governo cinese ha scelto una rotta chiara: rendere l’intelligenza artificiale una materia fondante del percorso scolastico fin dalle elementari. Una decisione che riflette un’ambizione precisa: fare della Cina il leader globale dell’IA entro il 2030. E per farlo, serve iniziare dai banchi di scuola. L’IA entra nei programmi scolastici Dal 2018, il Ministero dell’Istruzione cinese ha cominciato a introdurre corsi di IA in centinaia di scuole elementari e medie, in un progetto pilota poi esteso a livello nazionale. Nelle aule, tra lavagne digitali e tablet, gli studenti non solo imparano cos’è un’intelligenza artificiale, ma la mettono in pratica. Si cimentano con il coding, costruiscono piccoli robot, apprendono le basi del deep learning. I libri di testo dedicati all’IA sono già una realtà per milioni di studenti. Le lezioni, spesso condotte da insegnanti formati in collaborazione con aziende tech, mirano a sviluppare il pensiero logico, la creatività e l’abilità di risolvere problemi complessi: competenze chiave per il mondo del lavoro che verrà. L’alleanza tra Stato e big tech Il progetto non è solo scolastico: è sistemico. Colossi come Baidu, Tencent e Alibaba sono partner attivi di questo grande esperimento educativo. Offrono piattaforme, software educativi, kit didattici e organizzano competizioni su scala nazionale. Ogni anno si svolgono centinaia di gare di robotica e coding nelle scuole, dove migliaia di giovani mettono alla prova le proprie abilità in scenari sempre più realistici. Alcuni vincono borse di studio, altri entrano nei radar delle aziende prima ancora di diplomarsi. Educazione o pressione? Il modello, però, non è privo di critiche. Alcuni esperti sottolineano come questa spinta verso l’innovazione tecnologica rischi di aumentare lo stress sui bambini e limitare l’apprendimento umanistico. “Il rischio è che si crei una generazione tecnicamente brillante ma poco abituata al pensiero critico indipendente”, avverte un docente universitario di Pechino. Altri, invece, vedono in questa strategia un esempio da seguire. In Occidente, l’educazione all’IA è ancora frammentaria e spesso relegata a iniziative extracurricolari. In Cina, è parte integrante del piano educativo nazionale. Il futuro in miniatura Guardando questi bambini cinesi mentre programmano e creano, si ha la sensazione che stiano già vivendo in un tempo che altrove è ancora immaginato. Per la Cina, il futuro dell’intelligenza artificiale non è solo una questione economica o geopolitica: è una sfida educativa. E si gioca oggi, tra i banchi di scuola. Una cosa è certa: nella corsa globale all’intelligenza artificiale, Pechino ha messo il turbo. E ha deciso di partire dai più piccoli.
Autore: by Antonello Camilotto 23 aprile 2025
In un periodo in cui la conoscenza sembra essere a portata di click, spesso ci dimentichiamo di chi, dietro le quinte, lavora instancabilmente per costruire, correggere e arricchire le fonti da cui attingiamo quotidianamente. Uno di questi custodi della conoscenza è Steven Pruitt, definito da molti come l’eroe silenzioso di Wikipedia. Chi è Steven Pruitt? Nato nel 1984 a San Antonio, Texas, e cresciuto a Virginia Beach, Steven Pruitt è un archivista americano e soprattutto un prolifico editor di Wikipedia. Conosciuto online con lo pseudonimo Ser Amantio di Nicolao (nome ispirato a un personaggio dell'opera "Gianni Schicchi" di Puccini), Pruitt è stato riconosciuto come l’utente più attivo nella storia dell’enciclopedia libera. Nel corso degli anni, ha effettuato oltre 5 milioni di modifiche e ha creato più di 35.000 voci. Una cifra impressionante, soprattutto se si considera che lo fa volontariamente, mosso unicamente dalla passione per la conoscenza e la condivisione del sapere. Il suo impatto sulla conoscenza globale Il contributo di Pruitt va ben oltre la quantità: la qualità e l’approccio delle sue modifiche rivelano un impegno autentico verso l’accuratezza, l’inclusività e la diffusione di contenuti storici spesso trascurati. È stato un pioniere nel promuovere la rappresentazione femminile su Wikipedia, contribuendo ad aumentare la percentuale di voci dedicate a donne, scienziate, artiste e figure storiche dimenticate. ๏ปฟ Una delle sue battaglie personali è proprio quella contro i vuoti sistemici nella conoscenza online: il rischio che alcuni argomenti, culture o persone vengano esclusi semplicemente perché meno documentati. Il suo lavoro è diventato quindi anche un atto di giustizia culturale. Un riconoscimento (quasi) inaspettato Nel 2017, Time Magazine lo ha inserito nella lista delle 25 persone più influenti su Internet, accanto a nomi come J.K. Rowling e Kim Kardashian. Un riconoscimento che ha sorpreso lo stesso Pruitt, abituato a lavorare lontano dai riflettori, con umiltà e discrezione. Nonostante il successo, continua a condurre una vita semplice, lavorando come impiegato presso la US Customs and Border Protection, e modificando Wikipedia durante il tempo libero. Per lui, contribuire all’enciclopedia è un modo per lasciare un’eredità di conoscenza e fare la differenza nel mondo, una modifica alla volta. Un esempio per tutti Steven Pruitt incarna ciò che c’è di più puro nello spirito di Internet: la collaborazione, la condivisione libera del sapere, e la volontà di costruire qualcosa di utile per gli altri. In un'epoca spesso dominata dall’apparenza e dall’autocelebrazione, la sua dedizione silenziosa ci ricorda che anche i gesti più discreti possono avere un impatto enorme. In fondo, ogni volta che consultiamo Wikipedia, c’è una buona probabilità che dietro una voce ci sia passato lui. E forse, senza nemmeno saperlo, gli dobbiamo molto più di quanto immaginiamo.
Autore: by Antonello Camilotto 23 aprile 2025
Margaret Heafield Hamilton (nata il 17 agosto 1936 a Paoli, Indiana) è una pioniera dell’informatica, celebre per aver diretto lo sviluppo del software di bordo delle missioni Apollo della NASA. La sua visione, il rigore scientifico e l’invenzione del concetto moderno di "ingegneria del software" hanno avuto un impatto cruciale sulla riuscita dello sbarco lunare del 1969. ๏ปฟ Gli Inizi: dal MIT alla NASA Hamilton si laurea in matematica al Earlham College nel 1958. In un periodo in cui pochissime donne lavoravano nella tecnologia, lei comincia a lavorare al MIT (Massachusetts Institute of Technology), inizialmente su progetti meteorologici per il Dipartimento della Difesa. Nel 1961 entra a far parte del Lincoln Laboratory del MIT, dove sviluppa software per rilevare aerei nemici nel contesto della Guerra Fredda. Ma il suo vero salto arriva quando viene coinvolta nel progetto Apollo: il MIT era stato incaricato di costruire il software per il computer di bordo dell'Apollo Guidance Computer (AGC), e Hamilton ne diventa la responsabile. Il Software che ha Salvato la Missione Apollo 11 Durante la missione Apollo 11, pochi minuti prima dell’allunaggio, il sistema di bordo cominciò a segnalare errori (famosi "errori 1202 e 1201"). In quel momento cruciale, il software progettato dal team di Hamilton si dimostrò all’altezza: il sistema era stato programmato per gestire le priorità, e scartò in automatico i compiti non essenziali per concentrarsi sull’allunaggio, permettendo a Neil Armstrong e Buzz Aldrin di completare la missione con successo. Questa decisione del software di non collassare ma di ricalibrarsi in tempo reale è oggi considerata uno dei primi esempi di sistemi resilienti e a tolleranza di errore. Hamilton aveva insistito sull’importanza di questi meccanismi, spesso in controtendenza rispetto alle priorità degli ingegneri hardware. Conio del Termine "Ingegneria del Software" Hamilton è anche accreditata per aver coniato l’espressione "software engineering", un termine oggi standard, ma che all’epoca veniva guardato con scetticismo. Il suo uso del termine voleva sottolineare l’importanza del software come disciplina ingegneristica a tutti gli effetti, dotata di rigore, metodologia e responsabilità critica, soprattutto in ambiti dove un errore poteva costare vite umane. Dopo l’Apollo: Hamilton Technologies Nel 1986 fonda Hamilton Technologies, Inc., un’azienda focalizzata sullo sviluppo di sistemi software altamente affidabili. Qui introduce il concetto di Universal Systems Language (USL) e la metodologia Development Before the Fact, mirata a prevenire errori prima ancora che possano essere introdotti nel codice. Riconoscimenti Margaret Hamilton ha ricevuto numerosi premi per il suo contributo alla scienza e alla tecnologia: Presidential Medal of Freedom nel 2016, conferita da Barack Obama Computer History Museum Fellow Award Citata in numerose opere e mostre sull’esplorazione spaziale Una delle immagini più celebri di Hamilton la ritrae accanto a una pila di libri: sono le stampe del codice del software Apollo, alte quanto lei. Un’immagine iconica che simboleggia quanto fosse fondamentale il software in quella che fu una delle imprese più straordinarie dell’umanità. Margaret Hamilton è oggi riconosciuta come una delle menti più brillanti nella storia della tecnologia. Ha aperto la strada a milioni di donne nella scienza e nella tecnologia, dimostrando con i fatti che il software è scienza, ed è anche arte, responsabilità e visione.
Autore: by Antonello Camilotto 23 aprile 2025
La navigazione in incognito, o "modalità privata", è una funzione disponibile in quasi tutti i browser moderni, da Google Chrome a Firefox, Safari e Microsoft Edge. Viene spesso percepita come uno scudo contro la sorveglianza digitale, ma è importante capire esattamente cosa fa e, soprattutto, cosa non fa questa modalità. A cosa serve la modalità in incognito? Non salva la cronologia Quando navighi in incognito, il browser non memorizza le pagine visitate nella cronologia. Questo è utile se stai cercando un regalo a sorpresa, facendo ricerche personali o usando un computer condiviso. Non salva cookie e dati di sessione I cookie (che ricordano preferenze e login) vengono eliminati al termine della sessione. Quindi, se accedi a un sito, chiudi la finestra e riapri, dovrai accedere di nuovo. Non memorizza moduli o ricerche Tutto ciò che scrivi nei campi di ricerca o nei form non verrà salvato nella memoria del browser. Permette login multipli Puoi accedere a più account dello stesso sito in parallelo (es. due Gmail aperti contemporaneamente: uno in incognito, uno in finestra normale). A cosa non serve la modalità in incognito? Non nasconde la tua attività al tuo provider internet o alla rete Wi-Fi Il tuo ISP (provider) può comunque vedere quali siti visiti, così come può farlo chi gestisce la rete (es. scuola, ufficio, hotel). Non ti rende anonimo su internet I siti che visiti possono comunque raccogliere informazioni su di te (come l’indirizzo IP) e monitorare la tua attività, soprattutto se effettui il login. Non blocca tracker, pubblicità o fingerprinting Anche se i cookie vengono cancellati, molti siti usano tecniche avanzate per tracciarti, come il browser fingerprinting (identificare il tuo dispositivo in base alle sue caratteristiche uniche). Non protegge da malware o phishing La modalità in incognito non offre nessuna protezione extra contro siti malevoli, virus, o attacchi informatici. Quindi ... è inutile? Assolutamente no. La navigazione in incognito è utile per mantenere una certa privacy locale, cioè sul dispositivo che stai usando. È una funzione comoda per: Evitare di salvare cronologia e ricerche Accedere temporaneamente ad account Navigare su computer pubblici o condivisi senza lasciare tracce Ma non è una modalità anonima. Se cerchi anonimato reale o protezione della privacy a livello di rete, dovresti usare strumenti più avanzati, come VPN, Tor o browser focalizzati sulla privacy (es. Brave, Firefox con estensioni mirate). Navigare in incognito è come scrivere con l'inchiostro simpatico: nessuno lo legge subito, ma lascia comunque tracce che altri strumenti possono vedere. Usala consapevolmente, ma non pensare che basti per diventare invisibile online.
Autore: by Antonello Camilotto 23 aprile 2025
Il 23 aprile 2005, un giovane di nome Jawed Karim — uno dei tre fondatori di YouTube — caricava un breve video di 18 secondi intitolato “Me at the zoo”. Nella clip, Karim si trova davanti all’area degli elefanti allo zoo di San Diego e, con tono casuale, osserva quanto siano “interessanti” gli animali, soprattutto per le loro “veramente, veramente, veramente lunghe proboscidi”. Quel momento, apparentemente banale, ha segnato l’inizio di una rivoluzione culturale e mediatica. Oggi, nel 2025, quel video compie 20 anni. ๏ปฟ Un gesto semplice, un impatto immenso All’epoca, YouTube era ancora un’idea in fase embrionale, concepita come piattaforma per condividere facilmente video online — un’operazione che, fino a quel momento, era complicata, lenta e limitata a pochi utenti esperti. Nessuno, nemmeno i suoi fondatori, avrebbe potuto prevedere quanto YouTube avrebbe trasformato la comunicazione globale, l’informazione, l’intrattenimento e perfino la politica. Con oltre 3 miliardi di utenti attivi al mese nel 2025, YouTube è oggi uno dei siti più visitati al mondo, disponibile in oltre 100 Paesi e tradotto in più di 80 lingue. Ma tutto è iniziato con quella clip tremolante di un ragazzo e degli elefanti. Dall’amatoriale al professionale In 20 anni, YouTube è passato dall’essere un rifugio per contenuti amatoriali a una piattaforma sofisticata che ospita produzioni di alta qualità, programmi originali, documentari, film, concerti, corsi universitari, podcast e dirette streaming. Ha lanciato la carriera di milioni di creatori di contenuti — gli “YouTuber” — diventati a loro volta veri e propri brand, con milioni di follower e contratti milionari. La piattaforma ha anche influenzato profondamente il giornalismo partecipativo, permettendo a chiunque di documentare eventi in tempo reale, dando voce a proteste, denunce e movimenti globali. Un’eredità culturale Il video “Me at the zoo” è oggi un pezzo da museo digitale. Non solo è ancora visibile sul canale originale di Jawed, ma è stato studiato da storici, sociologi e studiosi dei media come punto di partenza per l’evoluzione della cultura online. È diventato simbolo di un’era in cui chiunque può diventare creatore di contenuti, in cui la democratizzazione della comunicazione è diventata una realtà. Uno sguardo al futuro Mentre celebriamo questo anniversario, vale la pena chiedersi: quale sarà il prossimo passo per YouTube? Tra intelligenza artificiale, realtà aumentata, contenuti immersivi e nuove forme di monetizzazione, la piattaforma è destinata a evolversi ancora. Ma una cosa è certa: tutto è cominciato con un video di 18 secondi, un ragazzo con una felpa e degli elefanti. E per quanto il mondo cambi, “Me at the zoo” resterà per sempre il primo capitolo di una delle storie digitali più significative del nostro tempo.
Autore: by Antonello Camilotto 15 aprile 2025
Nel panorama in continua evoluzione della cybersecurity, una nuova e subdola minaccia si sta affacciando all’orizzonte: lo slopsquatting. Questo termine, ancora poco noto al grande pubblico, descrive una tecnica sempre più sfruttata dai cybercriminali per ingannare utenti e sistemi sfruttando un fenomeno molto specifico: le allucinazioni delle intelligenze artificiali. Cos’è lo Slopsquatting? Il termine “slopsquatting” nasce dalla fusione tra sloppy (trasandato, impreciso) e typosquatting (una tecnica nota per registrare domini simili a quelli legittimi ma con errori di battitura). Nel caso dello slopsquatting, però, il focus non è su errori degli utenti, ma su errori delle AI generative. Molti modelli linguistici, chatbot e assistenti AI — anche i più avanzati — possono “allucinare”, ovvero generare dati inesatti o del tutto inventati. Quando, ad esempio, un utente chiede a un’AI il sito ufficiale di un'azienda minore o un tool poco noto, può capitare che l’AI risponda con un URL inesistente ma plausibile. I cybercriminali hanno fiutato l’occasione: registrano preventivamente questi domini inventati, rendendoli operativi come trappole. Se l’utente clicca su uno di questi link sbagliati generati dall’AI, finisce su siti malevoli pronti a rubare dati, infettare con malware o mettere in atto truffe. Come funziona nella pratica Allucinazione dell’AI: Un modello linguistico, rispondendo a una richiesta, genera un nome di dominio errato ma credibile. Registrazione del dominio: I criminali monitorano le allucinazioni più comuni o testano sistemi AI per stimolarle, e registrano in massa i domini che ne derivano. Distribuzione: Quando gli utenti si fidano del risultato dell’AI e cliccano sul link, vengono indirizzati verso un sito truffaldino. Un esempio concreto potrebbe essere: - L’utente chiede: “Qual è il sito ufficiale di SoftLight PDF Tools?” (un software poco noto). - L’AI risponde con www.softlightpdf.com , ma il sito ufficiale in realtà è www.softlight-tools.org . - Il primo dominio, inventato, è stato però registrato da un cybercriminale che lo usa per distribuire malware. Perché è così insidioso? Lo slopsquatting è particolarmente pericoloso perché: Sfrutta la fiducia nell’AI: Gli utenti tendono a fidarsi ciecamente delle risposte fornite dalle intelligenze artificiali. È difficile da individuare: Non è un errore umano, ma una falla nell’affidabilità della generazione testuale. Si adatta velocemente: I criminali possono testare le AI in modo massivo, generando centinaia di nuovi target ogni giorno. Difendersi è possibile? Sì, ma servono consapevolezza e strumenti adatti. Alcuni suggerimenti: Verificare sempre le fonti: Prima di cliccare su un link, controllare se il dominio è quello ufficiale. Usare motori di ricerca per confermare. Protezione DNS e filtraggio web: Le aziende possono implementare sistemi che bloccano domini sospetti o appena registrati. Responsabilità dei provider AI: Le aziende che sviluppano modelli linguistici dovrebbero inserire meccanismi per segnalare link generati e verificare se esistono o se sono stati recentemente registrati. Lo slopsquatting rappresenta una nuova frontiera del cybercrime, dove la creatività dei criminali si fonde con le vulnerabilità emergenti delle tecnologie AI. È una minaccia insidiosa perché sfrutta non la debolezza dell’utente, ma quella dell’intelligenza artificiale stessa. In un mondo sempre più guidato dall’AI, è fondamentale restare vigili, informati e pronti ad adattarsi — perché anche le macchine possono sbagliare, e i criminali sanno esattamente come approfittarsene.
Mostra Altri