Ronald Wayne: il socio dimenticato della Apple

by Antonello Camilotto

Ronald Wayne è uno dei nomi meno noti nella storia della tecnologia, ma il suo breve coinvolgimento nella fondazione di Apple Inc. lo rende una figura affascinante e, per certi versi, tragica. Nato il 17 maggio 1934 a Cleveland, Ohio, Wayne è un ingegnere e inventore statunitense che ha avuto un ruolo cruciale nei primi giorni di vita della Apple, affiancando Steve Jobs e Steve Wozniak nella creazione di quella che sarebbe diventata una delle aziende più influenti del mondo.


Il terzo fondatore


Nel 1976, Steve Jobs e Steve Wozniak, due giovani appassionati di tecnologia, stavano cercando di trasformare il loro hobby in un’impresa. Jobs, allora ventunenne, decise di coinvolgere Ronald Wayne, di vent'anni più anziano, come figura di supporto e guida. Wayne, che all’epoca lavorava presso Atari insieme a Jobs, aveva esperienza nella gestione e nella redazione di documenti legali. Fu lui a scrivere il primo contratto sociale della Apple e a disegnare il primo logo dell’azienda: un'immagine elaborata di Isaac Newton seduto sotto un albero di mele.


L’uscita dalla Apple


Ronald Wayne deteneva il 10% delle azioni della neonata Apple. Tuttavia, appena undici giorni dopo la firma del contratto, decise di vendere la sua quota per soli 800 dollari. Il motivo principale fu la paura: Wayne aveva già avuto esperienze imprenditoriali fallimentari e temeva di essere ritenuto finanziariamente responsabile in caso di debiti o insuccessi dell’azienda. A differenza di Jobs e Wozniak, Wayne aveva beni personali che potevano essere messi a rischio. Successivamente ricevette altri 1.500 dollari per rinunciare formalmente a qualsiasi diritto futuro sull’azienda.


Se avesse mantenuto la sua quota del 10%, oggi varrebbe decine di miliardi di dollari.


Dopo Apple


Dopo l'uscita da Apple, Ronald Wayne proseguì la sua carriera in ambito ingegneristico, lavorando in diverse aziende e, in seguito, gestendo un piccolo negozio di francobolli e monete rare nel Nevada. Col tempo, la sua storia è diventata quasi una leggenda, simbolo di opportunità mancate e decisioni prudenti che si rivelano enormi sliding doors.


Nonostante tutto, Wayne ha sempre dichiarato di non pentirsi della sua decisione. Ha ammesso che non avrebbe retto lo stress e la pressione che sarebbero arrivati con il successo dell’azienda. “La decisione era giusta per me, in quel momento della mia vita”, ha affermato in varie interviste.


Un personaggio fuori dagli schemi


Ronald Wayne è spesso visto come il “terzo uomo” dimenticato, ma la sua figura ha acquisito una certa notorietà col passare degli anni. Ha scritto un’autobiografia e partecipato a diversi eventi e documentari in cui racconta la sua versione dei fatti, con uno stile pacato e riflessivo, lontano dalla mitizzazione di Jobs e dalla genialità creativa di Wozniak.



La sua storia ci ricorda che dietro ogni grande successo ci sono anche decisioni difficili, timori personali e scelte che, con il senno di poi, sembrano incredibili. Ronald Wayne non è diventato miliardario, ma il suo ruolo, seppur breve, nella nascita di Apple lo rende parte integrante della storia della tecnologia moderna.


© 𝗯𝘆 𝗔𝗻𝘁𝗼𝗻𝗲𝗹𝗹𝗼 𝗖𝗮𝗺𝗶𝗹𝗼𝘁𝘁𝗼

Tutti i diritti riservati | All rights reserved



Informazioni Legali

I testi, le informazioni e gli altri dati pubblicati in questo sito nonché i link ad altri siti presenti sul web hanno esclusivamente scopo informativo e non assumono alcun carattere di ufficialità.

Non si assume alcuna responsabilità per eventuali errori od omissioni di qualsiasi tipo e per qualunque tipo di danno diretto, indiretto o accidentale derivante dalla lettura o dall'impiego delle informazioni pubblicate, o di qualsiasi forma di contenuto presente nel sito o per l'accesso o l'uso del materiale contenuto in altri siti.


Autore: by Antonello Camilotto 10 maggio 2025
Papa Francesco fu il primo a usare attivamente le piattaforme digitali per comunicare con i fedeli dopo la sua elezione. Ma con Papa Leone XIV, al secolo Robert Prevost, la Chiesa cattolica entra in una nuova era: quella di un pontefice che arriva al soglio pontificio con una lunga presenza pregressa sui social media. Il suo account su X (ex Twitter), @drprevost, verificato dalla piattaforma e attivo fin dal 2011, è stato rapidamente passato al setaccio dagli osservatori subito dopo la fumata bianca. Tra i primi post pubblicati all’epoca, emergono contenuti legati alla sua attività pastorale, con una particolare attenzione alle comunità agostiniane. Attualmente, l’account segue 87 profili, per lo più connessi alla sua missione apostolica, e vanta quasi 370.000 follower, una cifra in costante crescita. L’ultimo contenuto condiviso risale al 15 aprile ed è un retweet che rimanda a due articoli — uno dell’Associated Press e l’altro del Catholic Standard — incentrati sul tema delle deportazioni. Viene menzionato anche il presidente di El Salvador, Nayib Bukele, noto per aver ancorato l’economia del Paese al Bitcoin. Per trovare un intervento diretto del nuovo Papa, bisogna tornare al 13 febbraio: in quell’occasione Prevost aveva commentato la lettera di Papa Francesco ai vescovi statunitensi, soffermandosi sul concetto agostiniano di ordo amoris. Il post includeva il link a un articolo dell’America Magazine che criticava la linea politica di Donald Trump e JD Vance in materia di immigrazione. Ora che Robert Prevost è diventato Papa Leone XIV, non sarà più attivo sul suo vecchio account personale: le comunicazioni ufficiali passeranno attraverso il profilo @pontifex della Santa Sede. Rimane però il segno di un pontefice che, prima ancora dell’elezione, aveva già familiarità con il linguaggio e le dinamiche dei social media — e anche con il baseball, come dimostra una vecchia foto che lo ritrae con i colori dei Chicago White Sox.
Autore: by Antonello Camilotto 10 maggio 2025
Ogni istante può essere catturato, archiviato e condiviso con un semplice tocco, la memoria digitale sembra offrire una promessa di eternità. Ma quanto durano davvero i nostri ricordi digitali? Foto, video, messaggi e documenti conservati su dispositivi e piattaforme online sembrano immuni al tempo, ma la realtà è ben più fragile e complessa. Il mito della permanenza digitale L’idea che i ricordi digitali siano "per sempre" è un’illusione. Le tecnologie cambiano, i supporti si degradano, i formati diventano obsoleti. Chi oggi prova ad aprire un vecchio CD masterizzato nel 2005 o un file in un formato non più supportato sa quanto possa essere complicato accedere a dati che, teoricamente, erano stati “salvati”. Le memorie USB, gli hard disk, le schede SD e perfino i servizi cloud hanno una durata limitata. I dispositivi fisici possono guastarsi, mentre i servizi online sono soggetti a fallimenti aziendali, modifiche ai termini di servizio o semplicemente all’oblio: molti utenti scoprono tardi che un account inattivo può essere cancellato automaticamente dopo un certo periodo. Il paradosso dell’abbondanza Un altro fattore da considerare è la sovrabbondanza di dati. Ogni giorno produciamo una quantità enorme di contenuti: scatti ripetitivi, conversazioni brevi, appunti momentanei. In mezzo a questo caos, trovare e preservare ciò che davvero conta diventa difficile. I ricordi importanti rischiano di perdersi in un mare di file dimenticati. Spesso, poi, si affida la conservazione dei ricordi a piattaforme esterne: Facebook, Google Photos, iCloud. Ma la dipendenza da questi ecosistemi digitali ci espone a rischi di privacy, accessibilità e sostenibilità. Un cambio di password dimenticata, una violazione della sicurezza, o la dismissione di un servizio possono compromettere l’accesso a ricordi preziosi. Come proteggere i nostri ricordi digitali Per aumentare la durata dei ricordi digitali, è utile seguire alcune buone pratiche: Backup multipli: conservare copie dei dati importanti in più luoghi (cloud + supporti fisici). Formati aperti e standardizzati: prediligere formati ampiamente supportati (es. .jpg, .pdf, .mp4) per aumentare la compatibilità nel tempo. Aggiornamenti periodici: trasferire regolarmente i dati su nuovi supporti e controllarne l’integrità. Organizzazione consapevole: selezionare, etichettare e ordinare i contenuti per evitare la perdita nel caos informativo. Stampa selettiva: alcune foto o documenti particolarmente significativi meritano anche una copia fisica. Memoria umana e memoria digitale A differenza della memoria biologica, soggetta a dimenticanze e reinterpretazioni, la memoria digitale può essere (in teoria) perfettamente fedele. Ma proprio questa fissità può risultare ingannevole: la vera memoria è dinamica, selettiva, legata all’emozione e al contesto. I ricordi digitali, se non riletti, rivissuti e reinterpretati, restano solo dati. Conservare i ricordi digitali, quindi, non è solo un fatto tecnico. È anche un gesto culturale ed emotivo: scegliere cosa vale la pena ricordare e come farlo vivere nel tempo. La durata dei nostri ricordi digitali non è garantita dalla tecnologia, ma dalla cura che mettiamo nel preservarli. Non possiamo affidare alla sola memoria dei dispositivi il compito di ricordare per noi: è necessario un impegno attivo per dare forma, senso e continuità alle tracce della nostra esistenza digitale.
Autore: by Antonello Camilotto 3 maggio 2025
Il 3 maggio 1978 segna una data cruciale, anche se poco celebrata, nella storia di Internet: è il giorno in cui Gary Thuerk, all’epoca responsabile marketing della Digital Equipment Corporation (DEC), inviò quello che è oggi riconosciuto come il primo esempio di spamming informatico. Il messaggio, spedito a 393 indirizzi email sulla rete ARPANET, aveva l'obiettivo di promuovere i computer DEC e invitare i destinatari a una serie di dimostrazioni di prodotto. Il contesto: ARPANET e la nascita della rete Per comprendere l'importanza di questo evento, bisogna considerare il contesto tecnologico dell’epoca. ARPANET era una rete sperimentale creata dal Dipartimento della Difesa degli Stati Uniti, considerata l’antenata dell’attuale Internet. In quel periodo, la rete era usata quasi esclusivamente da ricercatori universitari, militari e istituzioni governative, e la comunicazione via email era un mezzo ancora nuovo e usato principalmente per scopi accademici o professionali. L’email di Gary Thuerk Gary Thuerk, vedendo nel nuovo mezzo un potenziale canale promozionale, decise di inviare un messaggio a centinaia di utenti per annunciare un evento di presentazione dei nuovi sistemi VAX 11/780 e DECsystem-20. La sua iniziativa fu innovativa sotto il profilo del marketing digitale, ma suscitò immediatamente forti reazioni negative: molti destinatari si lamentarono di aver ricevuto un messaggio non richiesto, intasando i canali della rete e generando un acceso dibattito sull’uso appropriato della posta elettronica. La nascita dello spam Curiosamente, il termine spam, oggi sinonimo di posta elettronica indesiderata, non fu utilizzato in quell’occasione. Il termine entrerà nel linguaggio informatico solo nel 1993, quando gli utenti iniziarono a paragonare l’invasività della posta non desiderata alla famosa scenetta comica dei Monty Python, in cui il menu di un ristorante era dominato da piatti a base di Spam (un tipo di carne in scatola), continuamente ripetuti fino all’esasperazione. Impatto e eredità Nonostante le critiche, Thuerk non si pentì mai del suo gesto. Anzi, affermò che quell’email generò vendite per circa 13 milioni di dollari, dimostrando quanto potesse essere potente il mezzo elettronico per scopi promozionali. Da allora, tuttavia, l’uso incontrollato delle email pubblicitarie è diventato un problema sempre più grave, spingendo alla creazione di filtri anti-spam, normative come il CAN-SPAM Act negli Stati Uniti, e soluzioni tecnologiche per contrastare la diffusione di messaggi indesiderati. Gary Thuerk è passato alla storia come il "padre dello spam", un titolo controverso ma inevitabile. Il suo gesto ha segnato l’inizio di una nuova era della comunicazione digitale, in cui i confini tra innovazione, marketing e invasività sono diventati sempre più sfumati. A distanza di quasi cinquant’anni, quell’email del 1978 resta un simbolo: una prima, clamorosa, lezione sui rischi e le potenzialità del mondo digitale.
Autore: by Antonello Camilotto 24 aprile 2025
A sei anni, sanno già scrivere le prime righe di codice. A dieci, costruiscono robot con sensori e intelligenza artificiale di base. A dodici, partecipano a competizioni nazionali di programmazione. In Cina, il futuro non è domani: è oggi, ed è scritto nel linguaggio dell’algoritmo. Il governo cinese ha scelto una rotta chiara: rendere l’intelligenza artificiale una materia fondante del percorso scolastico fin dalle elementari. Una decisione che riflette un’ambizione precisa: fare della Cina il leader globale dell’IA entro il 2030. E per farlo, serve iniziare dai banchi di scuola. L’IA entra nei programmi scolastici Dal 2018, il Ministero dell’Istruzione cinese ha cominciato a introdurre corsi di IA in centinaia di scuole elementari e medie, in un progetto pilota poi esteso a livello nazionale. Nelle aule, tra lavagne digitali e tablet, gli studenti non solo imparano cos’è un’intelligenza artificiale, ma la mettono in pratica. Si cimentano con il coding, costruiscono piccoli robot, apprendono le basi del deep learning. I libri di testo dedicati all’IA sono già una realtà per milioni di studenti. Le lezioni, spesso condotte da insegnanti formati in collaborazione con aziende tech, mirano a sviluppare il pensiero logico, la creatività e l’abilità di risolvere problemi complessi: competenze chiave per il mondo del lavoro che verrà. L’alleanza tra Stato e big tech Il progetto non è solo scolastico: è sistemico. Colossi come Baidu, Tencent e Alibaba sono partner attivi di questo grande esperimento educativo. Offrono piattaforme, software educativi, kit didattici e organizzano competizioni su scala nazionale. Ogni anno si svolgono centinaia di gare di robotica e coding nelle scuole, dove migliaia di giovani mettono alla prova le proprie abilità in scenari sempre più realistici. Alcuni vincono borse di studio, altri entrano nei radar delle aziende prima ancora di diplomarsi. Educazione o pressione? Il modello, però, non è privo di critiche. Alcuni esperti sottolineano come questa spinta verso l’innovazione tecnologica rischi di aumentare lo stress sui bambini e limitare l’apprendimento umanistico. “Il rischio è che si crei una generazione tecnicamente brillante ma poco abituata al pensiero critico indipendente”, avverte un docente universitario di Pechino. Altri, invece, vedono in questa strategia un esempio da seguire. In Occidente, l’educazione all’IA è ancora frammentaria e spesso relegata a iniziative extracurricolari. In Cina, è parte integrante del piano educativo nazionale. Il futuro in miniatura Guardando questi bambini cinesi mentre programmano e creano, si ha la sensazione che stiano già vivendo in un tempo che altrove è ancora immaginato. Per la Cina, il futuro dell’intelligenza artificiale non è solo una questione economica o geopolitica: è una sfida educativa. E si gioca oggi, tra i banchi di scuola. Una cosa è certa: nella corsa globale all’intelligenza artificiale, Pechino ha messo il turbo. E ha deciso di partire dai più piccoli.
Autore: by Antonello Camilotto 23 aprile 2025
In un periodo in cui la conoscenza sembra essere a portata di click, spesso ci dimentichiamo di chi, dietro le quinte, lavora instancabilmente per costruire, correggere e arricchire le fonti da cui attingiamo quotidianamente. Uno di questi custodi della conoscenza è Steven Pruitt, definito da molti come l’eroe silenzioso di Wikipedia. Chi è Steven Pruitt? Nato nel 1984 a San Antonio, Texas, e cresciuto a Virginia Beach, Steven Pruitt è un archivista americano e soprattutto un prolifico editor di Wikipedia. Conosciuto online con lo pseudonimo Ser Amantio di Nicolao (nome ispirato a un personaggio dell'opera "Gianni Schicchi" di Puccini), Pruitt è stato riconosciuto come l’utente più attivo nella storia dell’enciclopedia libera. Nel corso degli anni, ha effettuato oltre 5 milioni di modifiche e ha creato più di 35.000 voci. Una cifra impressionante, soprattutto se si considera che lo fa volontariamente, mosso unicamente dalla passione per la conoscenza e la condivisione del sapere. Il suo impatto sulla conoscenza globale Il contributo di Pruitt va ben oltre la quantità: la qualità e l’approccio delle sue modifiche rivelano un impegno autentico verso l’accuratezza, l’inclusività e la diffusione di contenuti storici spesso trascurati. È stato un pioniere nel promuovere la rappresentazione femminile su Wikipedia, contribuendo ad aumentare la percentuale di voci dedicate a donne, scienziate, artiste e figure storiche dimenticate.  Una delle sue battaglie personali è proprio quella contro i vuoti sistemici nella conoscenza online: il rischio che alcuni argomenti, culture o persone vengano esclusi semplicemente perché meno documentati. Il suo lavoro è diventato quindi anche un atto di giustizia culturale. Un riconoscimento (quasi) inaspettato Nel 2017, Time Magazine lo ha inserito nella lista delle 25 persone più influenti su Internet, accanto a nomi come J.K. Rowling e Kim Kardashian. Un riconoscimento che ha sorpreso lo stesso Pruitt, abituato a lavorare lontano dai riflettori, con umiltà e discrezione. Nonostante il successo, continua a condurre una vita semplice, lavorando come impiegato presso la US Customs and Border Protection, e modificando Wikipedia durante il tempo libero. Per lui, contribuire all’enciclopedia è un modo per lasciare un’eredità di conoscenza e fare la differenza nel mondo, una modifica alla volta. Un esempio per tutti Steven Pruitt incarna ciò che c’è di più puro nello spirito di Internet: la collaborazione, la condivisione libera del sapere, e la volontà di costruire qualcosa di utile per gli altri. In un'epoca spesso dominata dall’apparenza e dall’autocelebrazione, la sua dedizione silenziosa ci ricorda che anche i gesti più discreti possono avere un impatto enorme. In fondo, ogni volta che consultiamo Wikipedia, c’è una buona probabilità che dietro una voce ci sia passato lui. E forse, senza nemmeno saperlo, gli dobbiamo molto più di quanto immaginiamo.
Autore: by Antonello Camilotto 23 aprile 2025
Margaret Heafield Hamilton (nata il 17 agosto 1936 a Paoli, Indiana) è una pioniera dell’informatica, celebre per aver diretto lo sviluppo del software di bordo delle missioni Apollo della NASA. La sua visione, il rigore scientifico e l’invenzione del concetto moderno di "ingegneria del software" hanno avuto un impatto cruciale sulla riuscita dello sbarco lunare del 1969.  Gli Inizi: dal MIT alla NASA Hamilton si laurea in matematica al Earlham College nel 1958. In un periodo in cui pochissime donne lavoravano nella tecnologia, lei comincia a lavorare al MIT (Massachusetts Institute of Technology), inizialmente su progetti meteorologici per il Dipartimento della Difesa. Nel 1961 entra a far parte del Lincoln Laboratory del MIT, dove sviluppa software per rilevare aerei nemici nel contesto della Guerra Fredda. Ma il suo vero salto arriva quando viene coinvolta nel progetto Apollo: il MIT era stato incaricato di costruire il software per il computer di bordo dell'Apollo Guidance Computer (AGC), e Hamilton ne diventa la responsabile. Il Software che ha Salvato la Missione Apollo 11 Durante la missione Apollo 11, pochi minuti prima dell’allunaggio, il sistema di bordo cominciò a segnalare errori (famosi "errori 1202 e 1201"). In quel momento cruciale, il software progettato dal team di Hamilton si dimostrò all’altezza: il sistema era stato programmato per gestire le priorità, e scartò in automatico i compiti non essenziali per concentrarsi sull’allunaggio, permettendo a Neil Armstrong e Buzz Aldrin di completare la missione con successo. Questa decisione del software di non collassare ma di ricalibrarsi in tempo reale è oggi considerata uno dei primi esempi di sistemi resilienti e a tolleranza di errore. Hamilton aveva insistito sull’importanza di questi meccanismi, spesso in controtendenza rispetto alle priorità degli ingegneri hardware. Conio del Termine "Ingegneria del Software" Hamilton è anche accreditata per aver coniato l’espressione "software engineering", un termine oggi standard, ma che all’epoca veniva guardato con scetticismo. Il suo uso del termine voleva sottolineare l’importanza del software come disciplina ingegneristica a tutti gli effetti, dotata di rigore, metodologia e responsabilità critica, soprattutto in ambiti dove un errore poteva costare vite umane. Dopo l’Apollo: Hamilton Technologies Nel 1986 fonda Hamilton Technologies, Inc., un’azienda focalizzata sullo sviluppo di sistemi software altamente affidabili. Qui introduce il concetto di Universal Systems Language (USL) e la metodologia Development Before the Fact, mirata a prevenire errori prima ancora che possano essere introdotti nel codice. Riconoscimenti Margaret Hamilton ha ricevuto numerosi premi per il suo contributo alla scienza e alla tecnologia: Presidential Medal of Freedom nel 2016, conferita da Barack Obama Computer History Museum Fellow Award Citata in numerose opere e mostre sull’esplorazione spaziale Una delle immagini più celebri di Hamilton la ritrae accanto a una pila di libri: sono le stampe del codice del software Apollo, alte quanto lei. Un’immagine iconica che simboleggia quanto fosse fondamentale il software in quella che fu una delle imprese più straordinarie dell’umanità. Margaret Hamilton è oggi riconosciuta come una delle menti più brillanti nella storia della tecnologia. Ha aperto la strada a milioni di donne nella scienza e nella tecnologia, dimostrando con i fatti che il software è scienza, ed è anche arte, responsabilità e visione.
Mostra Altri