Chi ha inventato il cestino del computer?

by Antonello Camilotto

Il cestino del computer è una delle funzionalità più comuni e familiari nei sistemi operativi moderni. Permette agli utenti di eliminare facilmente file e cartelle, ma mantiene una copia di questi dati per un certo periodo, in modo che possano essere recuperati nel caso in cui vengano eliminati per errore. Nonostante sembri una funzione scontata, la sua invenzione ha avuto una genesi interessante.


L'origine del cestino


La storia del cestino del computer risale agli anni '80, durante la diffusione dei sistemi operativi grafici. Uno dei primi esempi di questa funzione si trova nel sistema operativo Macintosh di Apple. Il concept e la sua realizzazione sono generalmente attribuiti a Susan Kare, una grafica e designer di interfacce utente che ha lavorato con Steve Jobs. Kare è conosciuta per aver creato molte delle icone originali per il Mac, tra cui quella che simboleggia il cestino.


Nel 1984, con il lancio del Macintosh, Apple presentò una nuova interfaccia utente grafica (GUI), che era una novità rispetto ai sistemi operativi precedenti, basati principalmente su linee di comando. L'idea del cestino nacque per semplificare la gestione dei file eliminati. L'utente poteva “buttare” i file nel cestino, ma, se desiderava, li avrebbe potuti recuperare in seguito, evitando la perdita permanente dei dati per errore.


Come funzionava


Nel sistema Macintosh, il cestino era un’icona situata nel Dock, una barra di avvio rapido, che gli utenti utilizzavano per spostare i file che volevano eliminare. Quando il cestino veniva svuotato, i file venivano definitivamente rimossi dal sistema, ma, prima di questo, era possibile recuperarli facilmente. Il concetto di un'area di “recupero” diventò molto popolare, tanto che fu integrato anche nel sistema Windows di Microsoft, con l'introduzione di Windows 95.


Nel caso di Windows, il cestino aveva un comportamento simile a quello del Macintosh, ma con alcune modifiche e miglioramenti. Ad esempio, l'icona del cestino di Windows era progettata per mostrare un'illustrazione di un secchio della spazzatura, che si riempiva man mano che i file venivano eliminati. Inoltre, Windows ha introdotto la possibilità di configurare il cestino, come determinare la dimensione massima e scegliere se eliminare i file direttamente o spostarli nel cestino.


La funzione del cestino oggi


Oggi il cestino è una funzione standard in praticamente tutti i sistemi operativi, sia desktop che mobili. In macOS, ad esempio, il cestino è rappresentato da un'icona di un secchio che si svuota quando i file vengono eliminati. Su Windows, il cestino è sempre presente nel desktop e può essere personalizzato per adattarsi alle preferenze dell'utente.

๏ปฟ

Nel corso degli anni, molte modifiche sono state apportate per migliorare l'affidabilità e la funzionalità del cestino, come la possibilità di visualizzare i file eliminati, ripristinarli, o anche di configurare lo svuotamento automatico del cestino a intervalli prestabiliti.


Il cestino del computer è un'invenzione che ha rivoluzionato il modo in cui gli utenti interagiscono con i file e le cartelle su un computer, permettendo di recuperare facilmente i dati eliminati per errore. Sebbene Susan Kare sia la figura principale nell'ideazione di questa funzione su Macintosh, è stata l’adozione di questa funzionalità da parte di altri sistemi operativi come Windows a rendere il cestino una caratteristica universale, che oggi utilizziamo senza pensarci troppo.


© ๐—ฏ๐˜† ๐—”๐—ป๐˜๐—ผ๐—ป๐—ฒ๐—น๐—น๐—ผ ๐—–๐—ฎ๐—บ๐—ถ๐—น๐—ผ๐˜๐˜๐—ผ

Tutti i diritti riservati | All rights reserved

๏ปฟ

Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 3 novembre 2025
Adrián Alfonso Lamo Atwood, conosciuto come Adrian Lamo, nacque il 20 febbraio 1981 a Malden, nel Massachusetts. Cresciuto tra una curiosità precoce per la tecnologia e un profondo spirito indipendente, fin da giovane mostrò un’inclinazione naturale verso i computer e la programmazione. Il suo primo contatto con l’informatica avvenne grazie a un Commodore 64, con cui iniziò a sperimentare piccoli programmi e modifiche ai videogiochi che amava. Dopo aver frequentato il liceo a San Francisco, abbandonò gli studi in seguito a diversi contrasti con i docenti. Tentò poi un percorso in giornalismo all’American River College di Carmichael, in California, ma la sua vera formazione avvenne da autodidatta, nel mondo in continua evoluzione delle reti informatiche. Gli inizi e la scoperta dell’hacking Lamo iniziò la sua avventura nell’hacking con curiosità più che con intenzioni distruttive. Da adolescente si divertiva a manipolare giochi, creare virus su floppy disk e cimentarsi nel phreaking — l’arte di sfruttare le linee telefoniche per effettuare chiamate gratuite o restare anonimo. Queste prime esperienze lo portarono a comprendere il funzionamento profondo dei sistemi di comunicazione e ad appassionarsi sempre più al mondo nascosto dietro la rete. Negli anni ’90, con la diffusione di Internet, Adrian scoprì una nuova frontiera: il web aziendale. Spinto dal desiderio di esplorare e di comprendere, iniziò a testare i limiti di sicurezza di grandi compagnie, trovando vulnerabilità che spesso lasciavano attoniti i responsabili informatici. Non lo muoveva il desiderio di profitto, ma una sfida intellettuale. Faceva parte di quella che lui stesso definiva la “cultura hacker”: una comunità di menti curiose, convinte che la conoscenza dovesse essere libera e che ogni sistema potesse essere migliorato solo mettendolo alla prova. Il vagabondo digitale Per due anni Lamo visse come un nomade tecnologico. Viaggiava con uno zaino e un computer portatile, dormiva in edifici abbandonati o sui divani degli amici, e si collegava a Internet dalle biblioteche pubbliche o dai centri Kinko. Dalla Biblioteca Pubblica di San Francisco, trascorreva intere giornate ai terminali, connettendosi via telnet a sistemi remoti e affinando le proprie capacità. Questa vita errante lo rese una figura quasi leggendaria nella scena hacker: un giovane senza fissa dimora che riusciva, con mezzi minimi, a violare i sistemi informatici delle più grandi aziende del mondo. La fama e gli attacchi celebri All’inizio degli anni 2000, Lamo divenne noto per una serie di intrusioni in sistemi di alto profilo. Tra i suoi bersagli comparvero AOL, Yahoo, Microsoft e persino il New York Times. Il suo intento, come avrebbe più volte dichiarato, era quello di dimostrare quanto fosse fragile la sicurezza informatica anche nei colossi della comunicazione e della tecnologia. Nel 2002 il suo nome fece il giro del mondo: riuscì a penetrare nella rete interna del New York Times, ottenendo credenziali di amministratore e accesso a un database contenente i dati di oltre tremila collaboratori. Per ironia, si aggiunse egli stesso alla lista degli esperti del giornale come “esperto di hacking”. Una figura controversa La comunità hacker si divise sul suo conto. Per alcuni era un idealista che cercava di mettere in guardia le aziende dalle proprie debolezze; per altri, un traditore delle regole non scritte del mondo underground. Questa percezione divenne ancora più complessa negli anni successivi, quando venne etichettato da alcuni come “spia” per aver collaborato con le autorità in casi di rilievo. La morte e l’eredità Adrian Lamo morì il 14 marzo 2018, a soli 37 anni, in Kansas. La notizia fu diffusa dal padre attraverso un post su Facebook. Le circostanze della sua morte rimasero in parte avvolte nel mistero, e persino il medico legale non poté escludere completamente l’ipotesi di un atto violento. Nonostante la sua breve vita, Lamo lasciò un’impronta duratura nella storia dell’hacking. Era un esploratore dei limiti digitali, un anticonformista che cercava di dimostrare quanto fosse necessario prendere sul serio la sicurezza informatica. Figura controversa e affascinante, Adrian Lamo rimane simbolo di un’epoca in cui la curiosità e il desiderio di conoscenza potevano ancora cambiare il mondo – un hacker errante che trasformò la propria inquietudine in una sfida costante al sistema.
Autore: by Antonello Camilotto 3 novembre 2025
Nell’epoca delle conversazioni con i chatbot, delle traduzioni automatiche e dei testi generati dai modelli linguistici, sorge una domanda affascinante: qual è la lingua che l’intelligenza artificiale comprende meglio? ๏ปฟ Dietro la patina di neutralità delle macchine si nasconde infatti una realtà più complessa. I sistemi di intelligenza artificiale, anche i più avanzati, non sono “poliglotti” nel senso umano del termine. La loro competenza linguistica dipende dalla quantità e dalla qualità dei dati con cui vengono addestrati. E in questa corsa al predominio linguistico, l’inglese resta nettamente in testa. La ragione è semplice: la maggior parte dei contenuti digitali – articoli, siti web, ricerche accademiche, conversazioni online – è scritta in inglese. Ciò fornisce ai modelli un’enorme base di conoscenze, permettendo loro di affinare sfumature grammaticali, lessicali e culturali con una precisione che altre lingue non possono ancora vantare. Le lingue europee più diffuse, come il francese, lo spagnolo e il tedesco, beneficiano a loro volta di un’ampia presenza nei dataset globali, seppure con un livello di accuratezza leggermente inferiore. Diverso il destino per idiomi meno rappresentati o dotati di strutture grammaticali complesse, come l’ungherese, il basco o molte lingue africane e asiatiche: in questi casi, le intelligenze artificiali faticano a cogliere contesti, proverbi e sfumature culturali. Negli ultimi anni, tuttavia, diversi centri di ricerca stanno lavorando per colmare il divario linguistico. L’obiettivo è quello di creare modelli più equi e realmente multilingue, capaci di comprendere e valorizzare la diversità linguistica del pianeta. Iniziative come i progetti open source di traduzione automatica e le collaborazioni tra università e aziende tecnologiche stanno gettando le basi per una nuova era del linguaggio artificiale. La sfida, insomma, non è solo tecnologica ma anche culturale: un’IA che comprenda tutte le lingue, comprese quelle parlate da piccole comunità, significherebbe un passo avanti verso un mondo digitale più inclusivo e democratico.
Autore: by Antonello Camilotto 3 novembre 2025
I codici QR sono diventati strumenti di uso quotidiano: li troviamo nei ristoranti per consultare i menu, nei negozi per ottenere sconti, nei musei per approfondire le opere, fino ai documenti ufficiali e ai biglietti elettronici. Tuttavia, dietro la loro apparente comodità, si nasconde anche un rischio: i QR code possono essere manipolati per indirizzare l’utente verso siti pericolosi o truffe online. Ecco quindi alcuni suggerimenti per capire se un QR code è affidabile e come proteggersi. 1. Verificare la fonte Il primo passo è chiedersi dove si trova il QR code. Se è su un sito ufficiale, un documento aziendale o un prodotto riconosciuto, è probabile che sia sicuro. Se invece si trova su un volantino anonimo, un manifesto pubblico o un messaggio ricevuto via e-mail o chat, è bene diffidare: chiunque può stampare un QR code e applicarlo sopra uno autentico. 2. Controllare l’aspetto del codice Un QR code manomesso può avere segni evidenti, come un’etichetta sovrapposta o un adesivo non perfettamente allineato. Nei luoghi pubblici, come fermate degli autobus o vetrine, vale la pena verificare che il codice non sembri incollato sopra un altro o alterato. 3. Usare un’app di scansione sicura Molti smartphone moderni integrano la scansione dei QR code nella fotocamera, ma esistono anche applicazioni che mostrano l’anteprima del link prima di aprirlo. Questo permette di vedere l’indirizzo web e capire se è attendibile. Diffidate dei link abbreviati (come bit.ly o tinyurl), perché nascondono la destinazione reale. 4. Controllare l’indirizzo web Dopo la scansione, osservate attentamente il dominio: deve corrispondere al nome dell’ente o dell’azienda ufficiale. Un piccolo errore di ortografia (come “gooogle.com” o “p0stag.it”) può indicare un sito fraudolento. In caso di dubbi, meglio non cliccare. 5. Attenzione alle richieste sospette Un QR code non dovrebbe mai chiedere dati personali, bancari o password. Se dopo la scansione compare un modulo di login o una richiesta di pagamento, è bene fermarsi subito e verificare la legittimità della pagina. 6. Utilizzare un antivirus aggiornato Molti software di sicurezza per smartphone e computer possono bloccare automaticamente i siti pericolosi aperti da QR code. Avere un antivirus aggiornato è quindi un’ulteriore barriera contro le truffe digitali. I QR code sono uno strumento utile e veloce, ma come ogni tecnologia vanno utilizzati con consapevolezza. Prima di scansionare, è sempre bene chiedersi: mi fido della fonte? Un piccolo controllo in più può evitare grandi problemi di sicurezza.
Autore: by Antonello Camilotto 3 novembre 2025
Gli attacchi informatici evolvono con una rapidità impressionante. Tra le minacce più subdole e difficili da individuare spiccano gli attacchi zero-click, una categoria di exploit che non richiede alcuna interazione da parte dell’utente per compromettere un dispositivo o un account. Queste tecniche rappresentano un pericolo crescente, soprattutto per la loro capacità di passare inosservate anche ai sistemi di sicurezza più sofisticati. Che cosa sono gli attacchi zero-click Un attacco zero-click è una forma di intrusione che sfrutta vulnerabilità presenti in applicazioni o sistemi operativi, senza richiedere che la vittima compia alcuna azione, come cliccare su un link o aprire un allegato. Basta, ad esempio, ricevere un messaggio, una chiamata o una notifica per attivare l’exploit. Questo tipo di attacco è particolarmente insidioso perché elimina l’anello debole più comune della sicurezza informatica: l’errore umano. Come funzionano Gli attacchi zero-click si basano su vulnerabilità di tipo zero-day, cioè difetti di sicurezza sconosciuti ai produttori del software al momento dell’attacco. Gli aggressori individuano e sfruttano questi punti deboli per eseguire codice malevolo sul dispositivo della vittima. In molti casi, l’attacco avviene attraverso servizi di messaggistica o comunicazione come iMessage, WhatsApp o MMS: basta ricevere un messaggio contenente dati strutturati in modo anomalo per attivare il codice exploit. Una volta compromesso il sistema, l’aggressore può ottenere accesso completo al dispositivo, alle conversazioni, ai file, ai contatti e persino alla fotocamera e al microfono. Esempi noti Uno dei casi più noti è quello legato al software di sorveglianza Pegasus, sviluppato dalla società israeliana NSO Group. Pegasus è stato utilizzato in diversi contesti per spiare giornalisti, attivisti e politici, sfruttando vulnerabilità zero-click di applicazioni come iMessage. Anche se Apple e altri produttori hanno poi rilasciato patch correttive, questi episodi hanno mostrato quanto possano essere pericolosi gli attacchi di questo tipo. Perché sono difficili da individuare Gli attacchi zero-click non lasciano quasi tracce evidenti. Poiché non richiedono interazione, non esistono log di clic o comportamenti sospetti che possano far scattare un allarme. Spesso solo un’analisi forense approfondita del dispositivo può rivelare l’avvenuta compromissione. Questo li rende strumenti ideali per operazioni di spionaggio e sorveglianza mirata. Come proteggersi Anche se nessuna misura è completamente efficace contro le vulnerabilità sconosciute, è possibile ridurre il rischio seguendo alcune buone pratiche: mantenere sempre aggiornato il sistema operativo e le applicazioni; installare solo app provenienti da fonti ufficiali; limitare i permessi delle app, soprattutto l’accesso a fotocamera, microfono e messaggi; utilizzare sistemi di sicurezza avanzati e soluzioni di monitoraggio comportamentale; essere consapevoli che anche un dispositivo apparentemente “sicuro” può essere vulnerabile. Gli attacchi zero-click rappresentano una delle frontiere più avanzate e pericolose del cybercrimine. Il loro carattere invisibile e l’assenza di interazione da parte dell’utente li rendono difficili da prevenire e individuare. La sfida per il futuro sarà quindi quella di sviluppare sistemi in grado di rilevare comportamenti anomali a livello profondo del software, unendo tecniche di intelligenza artificiale e sicurezza proattiva per contrastare minacce che non danno neppure il tempo di un clic.
Autore: by Antonello Camilotto 2 novembre 2025
Esiste un progetto che può essere definito come un “archivio universale dei codici sorgente”: è il Software Heritage. Che cos’è Software Heritage Software Heritage è un’organizzazione senza scopo di lucro che ha come missione «raccogliere, preservare e condividere» tutto il software disponibile pubblicamente in forma di codice sorgente. Il progetto è stato lanciato dall’Inria (Istituto nazionale francese per la ricerca in informatica e matematica applicata) nel 2016, in collaborazione con l’UNESCO e altri partner. L’archivio raccoglie codice sorgente da piattaforme di sviluppo e repository pubblici (es. GitHub, GitLab) e package repository (es. npm, PyPI) per preservare la storia del software. Perché “universale” e perché è importante “Universale” nel senso che mira a conservare tutto il codice sorgente pubblico, indipendentemente dal linguaggio o dalla piattaforma. È importante perché il codice sorgente è parte integrante del patrimonio culturale e tecnico: sapere come è stato scritto, cosa fa e come si evolve, è utile per la ricerca, la riproducibilità scientifica, la trasparenza, la sicurezza. In particolare, offre una base per lo “studio dei Big Code” (ossia analizzare su larga scala i codici sorgente) e per applicazioni quali l’intelligenza artificiale, la conservazione digitale, la tracciabilità. Alcuni numeri e caratteristiche salienti L’archivio contiene decine di miliardi di file di codice sorgente, provenienti da centinaia di milioni di progetti software. Ogni entità (file, directory, commit, progetto) ha un identificatore univoco, lo “SWHID” (Software Heritage ID), che aiuta a referenziare e tracciare il codice. In Italia, il ENEA (Centro Ricerche di Bologna) ospita uno dei mirror istituzionali europei dell’archivio, consentendo la ridondanza e la conservazione locale. A chi serve e come può essere utilizzato Ricercatori: per studi storici sul software, sull’evoluzione dei linguaggi, delle librerie, degli algoritmi. Industria / Open Source: per garantire che del codice importante non vada perso, per facilitare la riโ€utilizzazione, per motivi di audit o sicurezza. Educazione: studenti o professionisti possono esplorare codice storico, versioni, commit, per imparare. Policy / Strategia nazionale: dato che il software è infrastruttura critica, conservarlo apre questioni di autonomia digitale e resilienza. Limitazioni e note pratiche L’archivio comunque prende codice che è pubblicamente disponibile; non tutti i software proprietari chiusi o privati saranno inclusi. Anche se “universale” nell’intento, ci sono limiti tecnici, legali e finanziari a quanto possa effettivamente coprire. L’uso richiede comunque familiarità con il concetto di repository, versioning, etc; non è solo “scarica e usa” come libreria comune. Per un uso pratico, serve verificare licenze, condizioni di riuso del codice contenuto — l’archivio conserva il codice, ma non sempre cambia le licenze originali.
Autore: by Antonello Camilotto 1 novembre 2025
Negli anni ’90 Internet cominciava a entrare nelle case e negli uffici, ma era ancora un territorio nuovo e misterioso. Oggi bastano pochi secondi per essere online, ma trent’anni fa collegarsi significava affrontare una vera e propria avventura tecnologica, fatta di modem rumorosi, linee telefoniche occupate e pazienza infinita. I primi passi nel mondo digitale All’inizio degli anni ’90, in Italia come nel resto del mondo, la rete non era ancora accessibile a tutti. Le università e alcune grandi aziende erano collegate tramite reti accademiche o interne, ma per il pubblico arrivarono i primi provider commerciali: società che offrivano, dietro pagamento di un abbonamento, la possibilità di “entrare” in Internet. Tra i pionieri italiani si ricordano nomi come MC-link, Video On Line, InWind, Tiscali e Tin.it. Erano gli anni in cui gli utenti scoprivano la posta elettronica, i primi forum e le chat IRC, strumenti che avrebbero cambiato per sempre il modo di comunicare. Il rito del modem e il suono della connessione Per collegarsi serviva un computer con modem analogico, di solito a 14.4 o 28.8 kbps, che si collegava alla presa del telefono. La connessione era “dial-up”: il modem componeva un numero, stabiliva la comunicazione e solo allora si poteva navigare. Il tipico suono gracchiante del modem che tentava di agganciarsi alla linea è rimasto un simbolo indelebile di quell’epoca. Navigare significava anche occupare la linea telefonica: durante la connessione nessuno poteva fare o ricevere chiamate, e ogni minuto aveva un costo. Per molti, la sera tardi o la notte erano gli unici momenti “sicuri” per esplorare la rete senza rischiare la bolletta salata. Contenuti e comunità: un Internet più piccolo, ma più intimo I siti web degli anni ’90 erano semplici, leggeri e spesso amatoriali. Le immagini si caricavano lentamente, e le pagine erano dominate dal testo. Non esistevano i social network: le comunità online si ritrovavano nei newsgroup, nelle mailing list o nelle chat IRC, dove si parlava di tutto, dall’informatica alla musica, dal cinema ai giochi. Era un Internet più ingenuo, ma anche più partecipativo: chi sapeva un po’ di HTML poteva creare una pagina personale su Geocities o Tripod e contribuire direttamente alla crescita del web. L’evoluzione verso la banda larga Con la fine degli anni ’90 arrivarono le connessioni ISDN e poi l’ADSL, che permisero di restare online senza bloccare il telefono e a velocità impensabili fino a poco tempo prima. Da quel momento Internet smise di essere un’esperienza “da pionieri” e cominciò a diventare parte della vita quotidiana. Un’epoca che ha fatto scuola Oggi Internet è ovunque, ma chi ha vissuto gli anni ’90 ricorda quella sensazione di scoperta e di libertà dei primi collegamenti. Ogni pagina caricata era una conquista, ogni e-mail un piccolo miracolo tecnologico. I primi provider e gli utenti di allora hanno gettato le basi del mondo connesso che conosciamo oggi.
Mostra Altri