La Vera Storia del PC Computer, dagli inizi ad oggi 2023

La Vera Storia del PC Computer, dagli inizi ad oggi 2023

Photo of Osborne 1
(Immagine:: CC BY 3.0)

PC, Personal Computer, Compatibile IBM. In qualunque modo vogliate chiamarlo, questo scatolotto pieno di schede elettroniche ha mantenuto una presenza dominante sul mercato per ben quattro decenni.

Se provate ad eseguire qualsiasi programma scritto dagli anni '80 in poi, esiste una buona possibilità che riusciate a farlo partire: il vostro PC ha una retrocompatibilità che risale agli anni '70. Questa caratteristica peculiare vi permette di eseguire pezzi di storia (quasi) come se fossero stati scritti oggi.

In effetti, il computer che avete sotto la scrivania sfoggia tantissime eredità storiche, dal modo in cui è disposta la scheda madre, alle dimensioni degli alloggiamenti delle unità, fino al layout della tastiera.

Sfogliate qualsiasi rivista di PC e vedrete dispositivi di tutte le forme e dimensioni, dagli ingombranti computer desktop, agli eleganti portatili aziendali; dai costosi file server ai dispositivi a scheda singola, capaci di stare in una mano.

In qualche modo tutti questi sistemi fanno parte della stessa grande famiglia dei PC e sono capaci, fino a un certo limite, di parlare tra loro.

Ma vi siete mai chiesti da dove è iniziato tutto? La nostra analisi esaminerà lo sviluppo del PC dal lancio nei primi anni '80, quando poco più di un embrione si è scontrato con giganti del calibro di Apple e fu clonato poi da innumerevoli produttori, a quando da 8 bit è passato a 16, 32 e infine a 64 bit.

Parleremo degli anni '90 e dell'inizio dell'era multimediale, dalla guerra (commerciale) tra i produttori di chip e dell'affermazione di Windows come sistema operativo leader mondiale.

Ma prima di tutto, per comprendere la natura rivoluzionaria del PC, è necessario capire che tipo di azienda fosse IBM all'epoca e quale fosse la sua filosofia di allora.

Lo sviluppo di IBM

IBM è stata costituita all'inizio del XX secolo da quelle stesse persone che inventarono e poi usarono le macchine a schede perforate e i tabulatori. Queste macchine a loro volta furono una delle molte rivoluzioni del XX secolo.

IBM ha introdotto l’informatizzazione industriale negli uffici del governo degli Stati Uniti, grazie alle sofisticate apparecchiature che dagli anni 30 tengono traccia di milioni di dati relativi all’occupazione negli USA. Oggi parleremmo di Big Data, un termine molto moderno che segna l'evolversi di una storia ormai piuttosto vecchia.

IBM è stata anche la prima azienda in assoluto a produrre schede magnetiche, hard disk, floppy disk e altro ancora. Ha proposto la prima dimostrazione di intelligenza artificiale e ed è stata parte integrante nei programmi spaziali della NASA.

IBM ha dato lavoro a cinque Premi Nobel e sei vincitori del Premio Turing, ed è una delle aziende che ha creato più posti di lavoro al mondo.

Credit: Sandstein, CC BY-SA 3.0 https://commons.wikimedia.org/wiki/File:IBM_system_360-50_console_-_MfK_Bern.jpg

 IBM non era un colosso solo per via delle sue dimensioni, ma anche per la cronica lentezza delle sue procedure. Osservatori hanno affermato che “gli ci sarebbero voluti nove mesi per spedire una scatola vuota". (Image credit: Sandstein, CC BY-SA 3.0)

I mainframe IBM hanno dominato l’informatica degli anni '60 e '70, e la sua presenza capillare nel settore ha reso indelebile nell’immaginario collettivo dei consumatori americani l’associazione del nome IBM con i computer.

Ma alla fine degli anni '70 gli Stati Uniti, e in particolar modo la Silicon Valley, erano stati inondati dai cosiddetti microcomputer, sistemi relativamente compatti realizzati da piccole realtà del calibro di Apple, Commodore, Atari e Tandy.

IBM iniziò a cedere terreno quando i suoi clienti cominciarono a migrare dai giganteschi mainframe verso i più economici microcomputer. L'azienda era solita impiegare anni per sviluppare un progetto, a causa dell’irrinunciabile burocrazia interna.

Le procedure a quel tempo prevedevano di testare ogni possibile minimo dettaglio, prima di rilasciare qualsiasi prodotto sul mercato.

Il colosso era molto lontano dal poter offrire computer desktop semplici e (relativamente) convenienti e non aveva alcuna esperienza con la vendita al dettaglio, della quale avrebbe avuto bisogno per raggiungere capillarmente il grande pubblico.

Nel frattempo, i produttori di microcomputer stavano sviluppando nuovi e innovativi modelli con cicli di sviluppo di pochi mesi e non c'era modo che IBM potesse tenere il loro passo a causa dei propri metodi tradizionalisti, fino ad allora croce e delizia dell’informatica a stelle e strisce.

Quella sporca dozzina

Nell'agosto 1979, i dirigenti di IBM si riunirono per discutere della crescente minaccia dei microcomputer e sulla necessità dell’azienda di sviluppare un nuovo tipo di personal computer per rispondere alla nuova concorrenza.

Per fare ciò l’azienda creò alcuni reparti indipendenti, fornendo loro un certo livello di autonomia. Uno di questi reparti sarebbe stato presto guidato dall'esecutivo Bill Lowe, rimasto nella storia con il titolo di “padre del Personal Computer”.

Nel 1980 Lowe dichiarò che, se non fosse stato vincolato dai metodi di IBM, avrebbe potuto realizzare un nuovo e innovativo elaboratore entro un anno.

Inizialmente Lowe aveva incontrato Atari, che desiderava lavorare per IBM come costruttore OEM, proponendo al colosso una macchina basata sul proprio Atari 800, uscito sul mercato l’anno precedente.

Lowe suggerì l’acquisizione di Atari da parte di IBM ma rifiutò la proposta ricevuta, perché era convinto che fosse necessario sviluppare un modello completamente nuovo, che avrebbe dovuto essere sviluppato entro l'anno dal team indipendente di Lowe.

La nuova squadra, chiamata informalmente “The Dirty Dozen”, la sporca dozzina, era composta da un gruppo di ingegneri provenienti da tutta IBM e fu autorizzata a fare tutto ciò che avrebbe ritenuto necessario per raggiungere lo scopo che le era stato assegnato.

Il progetto prese il nome di “Project Chess” e Lowe promise di mostrare un prototipo funzionante in appena 30 giorni.

Nonostante i concessionari fossero molto interessati ad una macchina proprietaria IBM, la squadra di Lowe decise di optare per un'architettura aperta. Tuttavia l’operazione sarebbe diventata irrealizzabile se la squadra avesse dovuto operare secondo i metodi abituali dell’azienda.

Inoltre, se i rivenditori avessero avuto la necessità di riparare queste macchine, avrebbero beneficiato di una realizzazione eseguita con parti standard, facilmente reperibili in commercio.

Nel mese di agosto del 1980, la squadra di Lowe aveva già realizzato un semplice prototipo ed aveva per le mani un piano aziendale piuttosto lontano dalle consolidate procedure IBM.

Sulla base della nuova architettura aperta e come previsto inizialmente, il PC venne realizzato con componenti e software standard, invece che con elementi proprietari.

L'intenzione era quella di distribuire le unità prodotte tramite i tradizionali canali di vendita al dettaglio.

Nei mesi successivi, il numero di membri della Dirty Dozen crebbe in maniera esponenziale, lavorando duramente per trasformare il prototipo in una macchina di fama mondiale.

La squadra si concentrò per dotare il PC di un’eccellente tastiera, che venne chiamata Model F e fu fornita in dotazione con il PC IBM. La periferica avrebbe dovuto essere robusta e affidabile, pertanto fu deciso che la vita stimata di ogni tasto avrebbe dovuto resistere a 100 milioni di battute.

IBM era rinomata per realizzare tastiere di qualità e aveva cercato di replicare il comfort delle vecchie tastiere Beam Spring dei terminali, dotandole di una nuova tecnologia Buckling Spring.

Questi meccanismi permettevano alle tastiere di produrre il famoso suono schioccante, piuttosto popolare tra i dattilografi perché forniva un piacevole un feedback tattile che in quel momento era senza rivali. Tali tastiere, apprezzate da moltissimi clienti, sarebbero diventate uno dei punti di forza del PC, rimanendo sulla cresta dell’onda per quasi due decenni.

Il team di lavoro si concentrò successivamente su un altro punto fondamentale, la scelta della CPU e dell’architettura necessaria per poter assemblare un intero sistema.

La squadra aveva preso in considerazione il processore RISC 801 di IBM, che sarebbe stato significativamente più potente, ma per praticità e motivi di compatibilità, optò per il chip Intel 8088. All’epoca era disponibile anche la CPU Intel 8086, che internamente ed esternamente a 16 bit, mentre l’8088 metteva a disposizione un bus esterno a soli 8 bit ma era piuttosto economico.

L'8088 pertanto era più semplice e costava meno, e ciò gli avrebbe permesso di venire prodotto in quantità maggiori in breve tempo. La sua adozione avrebbe anche permesso all'azienda di contenere la complessità della scheda madre, riducendo i costi e il tempo di sviluppo. Oltre a ciò, gran parte dell'hardware che sarebbe stato scelto per assemblare il PC avrebbe avuto un bus a 8 bit, rendendo l’8088 la scelta migliore in termini di compatibilità.

La scheda madre sarebbe stata dotata di cinque slot di espansione ISA, con la possibilità di installare un coprocessore matematico 8087 opzionale. Al lancio la RAM di sistema sarebbe stata compresa tra 16 o 64 KB, ma espandibile fino a 256 KB in un secondo momento.

Sull'IBM PC avrebbero potuto essere montate anche due unità floppy da 5,25 pollici, con la presenza di un jack per cassette per consentire l'archiviazione dei dati su nastro.

Le opzioni grafiche prevedevano una combinazione di scheda grafica e monitor monocromatico, oppure una scheda video CGA associata a un monitor a colori. Il processore 8088 avrebbe avuto una frequenza iniziale di 4,77 MHz.

Apple II: Il rivale

Se non fosse esistito Apple II, è probabile che il PC IBM non sarebbe mai stato realizzato. Sebbene questa affermazione sia ancora oggetto di dibattito, è generalmente accettato che Apple II abbia avuto un'influenza primaria sullo sviluppo del PC IBM.

Molti ingegneri IBM ne possedevano uno, così come molti clienti, i quali scoprirono di poter lavorare facilmente su applicazioni come i fogli di calcolo, quasi impossibili da utilizzare su un gigantesco mainframe.

Image Credit: Michael Holley, Public Domain

Architettura aperta e facile accesso agli slot di espansione? Steve Jobs non avrebbe mai potuto progettare una cosa del genere! (Image credit: Michael Holley, Public Domain)

Dotato di un processore MOS 6502 a 8 bit e una quantità di RAM variabile tra 4 KB e 64 KB, Apple II aveva debuttato nel giugno 1977 con un prezzo base di $1.298. Il sistema di Apple ebbe un incredibile ciclo di vita, durato dal 1977 al 1993. Sviluppato da Steve Wozniak, l'Apple II si trovò in netto contrasto con i prodotti sviluppati da Steve Jobs.

Anche Apple II fu infatti progettato utilizzando un'architettura aperta, con un pannello rimovibile sopra il case che consentiva un facile accesso alla scheda madre e agli slot di espansione.

Proprio come accadde successivamente al PC, Apple II fu oggetto di numerose clonazioni durante il corso degli anni.

Anche se il PC era più recente, l'Apple II manteneva alcuni indiscutibili vantaggi, come la disponibilità di otto slot di espansione contro i cinque del calcolatore IBM. L'Apple II poteva contare anche del joystick in dotazione, inoltre permetteva di caricare i giochi piuttosto velocemente.

 

Non solo hardware

Una volta che l’hardware venne reso disponibile, l'onere dello sviluppo del sistema operativo fu esternalizzato in gran parte a un'azienda relativamente piccola, Microsoft.

IBM iniziò ad offrire sui propri PC il sistema operativo PC DOS realizzato in joint-venture con l’azienda di Redmond, che ai tempi aveva sede ad Albuquerque, nello stato del New Mexico.

Il primo PC fu chiamato IBM Model Number 5150. Questo soprannome sarebbe comunque stato solamente un identificativo, perchè la stampa avrebbe parlato di esso come del “Personal Computer IBM”.

Credit: Michael Holley, Public Domain

Finalmente il primo Personal Computer, l’IBM 5150 fu pronto per conquistare il mondo. (Image credit: Michael Holley, Public Domain)

Dopo uno sviluppo di 12 mesi, IBM il 12 agosto 1981 fu finalmente pronta per annunciare il suo nuovo Personal Computer. Il modello base costava $1.565 e includeva 16 KB di RAM e la scheda grafica CGA.

L’utente avrebbe dovuto procurarsi un registratore a cassette per conto proprio: le unità disco erano opzionali e molto più costose del nastro. Rivali come RadioShack e Apple rimasero indifferenti.

Steve Jobs ne comprò uno per sezionarlo e non ne rimase affatto impressionato per via delle tecnologie antiquate che trovò al suo interno.

Nella sua arroganza, Apple pubblicò un annuncio a tutta pagina proclamando "Benvenuto, IBM. Sul serio." Non riuscì a riconoscere immediatamente il peso che un'azienda come IBM poteva avere sulle imprese.

Anche se il prodotto IBM era per molti versi inferiore ai suoi concorrenti più economici, le aziende consideravano l'azienda un cavallo vincente, anche grazie all’eccezionale supporto che aveva per i propri clienti.

Nel giro di un anno, il PC superò Apple II nella classifica dei computer desktop più venduti. Nel 1983 due terzi dei clienti aziendali scelsero il PC come computer, con solo il 9% di clienti rivoltisi ad Apple. Nel 1984 il fatturato annuale del PC IBM era il doppio rispetto a quello dell’azienda di Steve Jobs.

IBM era riuscita a sconvolgere il settore andando contro le proprie tradizioni. Non solo ha consentito la formazione di personale non IBM, ma ha pubblicato le specifiche tecniche e gli schemi del proprio PC per incoraggiare nuovi e vecchi produttori a produrre periferiche e software di terze parti.

Nel giro di un paio d'anni, il PC divenne il nuovo standard per i computer desktop, generando un'enorme indotto per la produzione e fornitura di periferiche ed espansioni PC.

Nel 1982, il PC IBM fu aggiornato allo standard IBM XT (eXtended Technology), rimuovendo il jack per cassetta e aggiungendo un disco rigido da 10 MB. l’XT fu il primo PC con un disco rigido di serie.

Nell’agosto 1984 uscì una nuova versione di PC IBM, PC/AT (Advanced Technology).

Dotato di una CPU Intel 80286 a 6 MHz (noto anche come 286, visto che il prefisso"80" era sparito dal gergo popolare), era fornito di 256 KB di RAM, espandibile fino a 16 MB.

I modelli iniziali erano ancora limitati alla grafica CGA e a quella monocromatica, ma presto fu introdotto il nuovo standard IBM EGA, che consentiva di visualizzare 16 colori a una risoluzione di 640x350 pixel, contro i precedenti 4 colori e 320x200 pixel della CGA.

Questo aggiornamento permise al PC di fare un grosso passo avanti verso la sua forma attuale, grazie alla standardizzazione degli alloggiamenti per le unità, dei punti di montaggio della scheda madre e del layout di base della tastiera.

Sebbene fosse un grande successo presso le aziende, il primo PC era troppo costoso per gli utenti domestici. Il prezzo del modello base non era esagerato, ma non includeva il monitor o un floppy drive; un modello intermedio con 64KB di RAM e unità floppy e monitor, costava più di $ 3.000 (oltre $ 8.000 odierni).

I rivali nel frattempo colsero l'opportunità e, con la benedizione di un'architettura aperta, non sarebbe passato molto tempo prima che di vedere il mercato riempirsi di cloni del PC IBM.

PCjr questo sconosciuto

L’IBM PCjr sembrava essere promettente. Montava una CPU Intel 8088, una grafica CGA Plus e un chip audio simile a quelli utilizzati dalle console Sega. IBM promise una macchina domestica dotata di compatibilità con il proprio PC, grafica e audio migliorati e un prezzo inferiore a $1.269.

I consumatori avrebbero adorato la tastiera wireless (nel senso che il cavo poteva essere staccato dalla tastiera…) ed era prodotto da IBM, il re dell'industria informatica.

Gli esperti pensavano che il PCjr avrebbe distrutto la concorrenza, ma al momento del lancio fu stroncato universalmente.

Credit: Michael Holley, Public Domain

Se non fosse stato per la pessima tastiera, forse il PCjr avrebbe potuto funzionare… (Image credit: Michael Holley, Public Domain)

Un Commodore 64 costava un terzo del suo prezzo, era più veloce, con una grafica migliore e aveva un'enorme libreria software a disposizione.

Lo strano hardware e le ottimizzazioni del PCjr lo rendevano solo parzialmente compatibile con il PC IBM, inficiandone l’interesse sia da parte dei giocatori, che da quella degli utenti aziendali.

Ciò che irritò per davvero i consumatori fu però la presenza della tastiera chiclet in gomma con le caratteristiche simili a quelle delle tastiere economiche, nonostante fosse prodotta da un'azienda nota per la qualità delle proprie tastiere e fornita con un PC abbastanza costoso.

Le vendite iniziali del PCjr furono un disastro. Nonostante ciò, una campagna di sconti, pubblicità e aggiornamenti (in particolare alla tastiera) riuscirono a cambiare le cose, rendendolo un modesto successo per IBM. Tuttavia la sua reputazione era stata ormai danneggiata irrimediabilmente, e alla fine la produzione fu cancellata del tutto nel 1985.

 

L’arrivo dei cloni

Inizialmente IBM non fu particolarmente preoccupata dal problema dei cloni. Il suo PC poteva essere replicato con parti al dettaglio, ma il BIOS apparteneva all’azienda, che ne garantiva la corretta compatibilità con lo standard IBM.

Alcune società, come Award e American Megatrends, furono però in grado di eseguire il reverse engineering del BIOS di IBM e produttori come Dell, Compaq e HP iniziarono a utilizzare i BIOS di questi fornitori per realizzare cloni del PC IBM.

Il primo clone fu prodotto nel 1982 dalla Columbia Data Products e si chiamava MPC 1600, ma il 1983 vide come punto di riferimento il Compaq Portable, il primo computer ad essere quasi completamente compatibile con il PC IBM.

Credit: Michael Holley, Public Domain

Il Compaq Portable è stato il primo vero e proprio PC compatibile IBM. (Image credit: Michael Holley, Public Domain)

Compaq utilizzava un proprio BIOS e forniva il proprio sistema in un formato molto diverso rispetto a quello di un PC desktop, con tutti i componenti inseriti in una scatola semi trasportabile, che comprendeva anche un minuscolo monitor CRT.

Quando IBM decise di rilasciare il suo sfortunato budget PCjr nel 1984, RadioShack ne creò un clone, il Tandy 1000. Questo modello ebbe molto più successo del PCjr, grazie ad una migliore compatibilità con il PC.

Dopo la cancellazione del PCjr, il software e le periferiche esistenti vennero sfruttati dai sistemi Tandy. Cloni molto più economici stavano nel frattempo erodendo la posizione di IBM sul mercato, con la sua quota scesa dal 76% nel 1983 al 26% nel 1986.

La svolta 386

IBM aveva dalla sua parte un vantaggio tecnologico, ma anche quello fu eroso quando Compaq propose il Deskpro 386 del 1986. Intel aveva recentemente rilasciato la nuova CPU 80386 a 32 bit ma, sfortunatamente per IBM, Compaq arrivò prima sul mercato con un PC compatibile dotato di processore 386, ben 1 MB di RAM a bordo sistema e operativo MS-DOS 3.1.

Questo processore era molto più veloce del precedente 286, da due a cinque volte (negli ultimi modelli), con un prezzo base del sistema di $6.500. Grazie ad una configurazione top di gamma, le macchine di Compaq avrebbero strappato il titolo di leader di IBM per l’informatica business.

IBM reagì con il suo Personal System/2 (PS/2) del 1987, immettendo la prima versione di PC IBM dotata di 386 sul mercato. Il modello più potente poteva contare su una CPU da 20 MHz, 2 MB di RAM e un disco rigido da ben 115 MB.

Questo computer fu un vero e proprio punto di riferimento, poiché introdusse caratteristiche standard che sarebbero state valide per parecchio tempo negli anni successivi, come il floppy da 3,5 pollici da 1,44 MB e le porte PS/2 ancora utilizzate oggi da mouse e tastiere.

Il balzo più grande a livello tecnico è stato quello dell'introduzione della grafica VGA. Permetteva di mostrare 16 colori ad una risoluzione di 640x480 pixel oppure 256 colori in modalità a bassa risoluzione (320x200) e divenne estremamente popolare per i videogiochi, dato che poteva sfruttare una palette di colori maggiore rispetto a quella delle soluzioni precedenti.

Nonostante gli incredibili progressi, IBM continuò a perdere terreno a favore dei cloni. E sebbene la linea PS/2 vendesse bene per un certo periodo, il pubblico generalista continuò a trovare le macchine prodotte da IBM ancora troppo costose.

Alla fine degli anni '80, il termine PC iniziò ad essere dissociato da quello di IBM, mentre tutti i produttori erano solito dichiarare i propri modelli "compatibili IBM", in guisa di certificazione.

Sebbene il PC stesse conquistando l'America, in molte regioni del mondo i microcomputer erano ancora molto popolari. In Europa spopolavano l’Atari ST e le varie versioni dell'Amiga Commodore, che al tempo era considerata molto all’avanguardia rispetto ai PC coetanei, dotati di un’interfaccia grafica non all’altezza.

Al contrario, i sistemi Amiga basati su Motorola 68000 sfruttavano sofisticate GUI e sorprendenti capacità multimediali e avrebbero surclassato i PC dal punto di vista tecnico ancora per diversi anni ad una frazione del costo.

Inaspettatamente, il PC ha continuato nel frattempo a crescere e svilupparsi, con ulteriori progressi come l’introduzione della grafica Super VGA del 1988 che ha portato la risoluzione massima a 800x600 pixel.

Nell'aprile 1989, Intel rilasciò il processore 486, una potente CPU che nelle sue versioni più spinte è riuscita a sopravvivere alla prima metà del decennio successivo. 

Il primo computer a montare la nuova CPU fu il 486/25 Power Platform di IBM nell’ottobre dello stesso anno, divenendo la macchina più potente sul mercato. 

Il decennio era iniziato con i microcomputer a 8 bit per terminare con i sistemi a 32 bit e grafica SVGA, un progresso tecnico sbalorditivo e molto difficile da replicare in ambito tecnologico.

La guerra dei sistemi operativi a 32 bit

Non c'è dubbio che per moltissime persone Windows sia sinonimo di PC. Ciò non dovrebbe sorprendere più di tanto, perché come vedremo "WinTel" è stato a lungo sinonimo di rilasci pressoché contemporanei di nuove CPU e nuovi sistemi operativi.

Ma perché non dovrebbe essere così?

È certo che le nuove funzionalità software richiedano hardware più veloce e hardware più sofisticato richieda software migliore per gestire gli aggiornamenti e le funzionalità. Nel tempo si è creato un circolo vizioso che ha favorito il consumismo, ma anche la diffusione del personal computing.

In quel periodo Microsoft stava proponendo al grande pubblico un’interfaccia semplice e conveniente per sfruttare al meglio la propria gamma di software (e anche quello della sua concorrenza, a pensarci bene).

Intanto un altro progetto ambizioso era in procinto di decollare, quello di Linux. La sua carriera è iniziata in maniera umile, partendo da uno studente dotato di un PC con processore 386, e oggi è capace di sfruttare l’hardware sofisticatissimo dei più potenti supercomputer del mondo.

Ma come ha fatto un disordinato gruppo di sviluppatori, tra cui uno studente finlandese e alcuni accademici californiani hippy a creare un intero ecosistema che riuscisse a sfidare l’egemonia Microsoft? Scopriamolo!

In questa parte vedremo i principali cambiamenti nel mondo dell’informatica di consumo e business, ma alla fine dell'articolo torneremo su Linux e sul software open source per chiudere il cerchio.

Le prime versioni di Windows non ebbero un grande successo, ma a partire da Windows 3.0, uscito nel maggio del 1990, il desktop del PC iniziò ad essere considerato come una valida alternativa a Macintosh e Amiga.

Windows 3.0 aveva una nuova interfaccia, alcune capacità multitasking e poteva sfruttare delle suite software di produttività che, grazie all’utilizzo del mouse, permettevano agli utenti non doversi scontrare con la complessità della riga di comando.

Nel frattempo, a partire dal 1987, anche il sistema operativo OS/2 di IBM aveva cercato di affermarsi come una rispettabile GUI presso le aziende americane. Nel 1990 però, l'alleanza tra IBM e Microsoft era sostanzialmente finita e le due aziende divennero rivali.

Sebbene le versioni più recenti di OS/2 fossero piuttosto avanzate, Microsoft alla fine del decennio manteneva un certo vantaggio tecnologico. IBM fu ostacolata dai computer dotati dei vecchi chip 286 a 16bit, costringendo l’azienda a non sfruttare le funzionalità avanzate del 386.

Nell’aprile 1992 anche OS/2 divenne a 32 bit. Per molti versi, era un sistema operativo superiore. Stabile e con estensioni per l’ambiente real time di DOS e il supporto alle applicazioni Windows 3.x.

Ma mentre Windows era orientato a funzionare su cloni IBM PC, OS/2 veniva installato su macchine IBM, non potendo funzionare su molti cloni su cui Windows funzionava perfettamente.

Inoltre, mentre IBM vendeva OS/2 come prodotto separato, Microsoft forniva Windows in bundle con i nuovi PC, facilitandone la diffusione.

Il dominio di Microsoft iniziò con l’arrivo di Windows for Workgroups 3.11 nell'agosto 1993. L'aggiornamento della versione 3.0 aveva nuove funzionalità a 32 bit e notevoli capacità di rete, diventando l'ambiente con cui molte persone hanno compiuto i loro primi passi nel campo dell’informatica.

In questo periodo vengono rilasciati anche le distribuzioni Linux Debian e Slackware.

L'era multimediale

Alla metà degli anni '90, ogni PC montava una scheda audio, un'unità CD-ROM e un set di altoparlanti multimediali. I 650 MB di spazio di archiviazione del CD-ROM avevano reso possibile una nuova generazione di videogiochi, con spezzoni di filmati e colonne sonore di qualità.

Nelle famiglie e nelle scuole hanno fatto capolino enciclopedie multimediali sempre più complete e sofisticate per intrattenere e informare gli studenti e i membri delle loro famiglie.

Il PC 486, inizialmente costoso, divenne il processore standard. Sebbene i 386 fossero ancora funzionali per il lavoro di tutti i giorni, era necessario un 486 per godere dei vantaggi multimediali del nuovo software.

Con l’aumentare della diffusione dei PC, i prezzi dell'hardware diminuirono drasticamente. Mentre i PC degli anni '80 montavano principalmente CPU Intel, i produttori concorrenti erano in aumento e ciò fece abbassare i costi.

Sebbene le CPU AMD fossero di una generazione indietro rispetto ai corrispettivi processori Intel, i suoi chip erano più efficienti e consentivano velocità di clock più elevate, offrendo prestazioni simili a prezzi molto inferiori.

Cyrix si stava facendo un nome proponendo processori economici per aggiornare i 386 e le prime generazioni di 486, diventate obsolete dopo pochissimi anni.

Questo garantiva una soluzione economica per ottenere maggiori prestazioni senza dover sostituire le vecchie (e costose) schede madri.

Con l'Intel Pentium del 1993 arrivò una nuova generazione di processori capace di sdoganare completamente il concetto di multimedialità.

Per motivi di copyright Intel decise di abbandonare il suffisso "86" in favore del nome commerciale Pentium™, differenziandosi dagli altri produttori.

Pentium deriva dal greco penta, che significa cinque. Indicando indirettamente di essere un 586, ma senza metterlo in evidenza e permettendo la registrazione del nome commerciale.

I Pentium erano capaci di fornire quasi il doppio delle prestazioni del 486 per ciclo di clock, anche se i primi modelli erano limitate da una frequenza di 60/66 MHz e un bus da 30/33 Mhz, che non permetteva un reale salto generazionale. Oltre a questo le prime generazioni furono sorpassate molto velocemente per via del FDIV bug, che creava problemi di calcolo in particolari condizioni.

Nel frattempo, AMD stava sviluppando ancora i propri 486, dotati di altissime frequenze di clock come il 486DX4-120, capace di girare a 120 MHz e dotato di un moltiplicatore 3x al bus di 40 MHz (un fatto strano per un oggetto che porta il nome di DX4). Questa CPU aveva prestazioni non dissimili da quelle dei primi Pentium e fu un un successo.

Le ottime prestazioni e i prezzi bassi di AMD hanno attratto produttori come Acer e Compaq, mentre i design efficienti di Cyrix hanno attirato l'attenzione di IBM, che nel 1994 avviò una partnership con il produttore.

Nel 1995 venne introdotto lo standard ATX che usiamo ancora oggi, definendo una modalità completamente nuova nell’assemblaggio dei PC grazie alle funzionalità automatiche di alimentazione delle schede madri.

A differenza di XT e AT, questa modifica venne apportata da Intel anziché da IBM. Il tasto di accensione e spegnimento del PC non era più un interruttore come quello di una lampada da comodino, ma si era trasformato in un pulsante dotato di feedback.

Microsoft lancia Windows 95

Nell'agosto 1995 uscì quello che fu considerato (almeno da Microsoft) il più grande cambiamento nel panorama dell’informatica anni 90 (RedHat era uscito ad ottobre del 1994, nel frattempo…): Windows 95.

Dal punto di vista tecnico, Windows 95 era stato progettato per utilizzare il multitasking preventivo a 32 bit, ed era compatibile con i programmi DOS e Windows 3.x esistenti, portando in dote nuove tecnologie come le DirectX che usiamo ancora oggi (siamo alla release 12) e il supporto Plug and Play, che sul defunto Amiga era disponibile già un decennio prima.

Windows 95 ha permesso a Microsoft di affermarsi Microsoft come società leader a tutti gli effetti. L'informatica era diventata improvvisamente mainstream e Microsoft era diventato un nome familiare anche per chi non masticava la tecnologia. Per i concorrenti era finita: Commodore era fallita, Atari fu smantellata e Apple, senza la guida di Steve Jobs, sopravvisse a malapena.

IBM aveva ancora OS/2, con la nuova versione Warp uscita l’anno precedente, ma supportava solo le applicazioni Win 3.x ed era ormai diventato un sistema operativo irrilevante.

Windows 98 non ci mise molto ad archiviare Windows 95, risolvendo molti problemi iniziali, grazie a ad un sistema relativamente più stabile, un migliore supporto hardware e importanti miglioramenti dell'interfaccia utente.

A questo punto iniziarono anche le cause legali antitrust, poiché Microsoft decise di fornire Internet Explorer in bundle con Windows, a sua volta già in bundle con nuovi computer. Questa manovra schiacciò la concorrenza di browser come Netscape Navigator, considerato all’epoca molto promettente.

Windows 95

(Image credit: Microsoft)

Nel periodo in cui Microsoft iniziò a dominare non solo il mondo dei PC, ma anche l'uso di Internet, divennero popolari le schede acceleratrici 3D.

Modelli iconici come le Voodoo e Voodoo 2 di 3dfx, la Riva TNT di Nvidia e le serie Rage di ATI,sarebbero diventate una caratteristica distintiva del PC di fine degli anni '90.

L'accelerazione 3D ha portato in una nuova era i giochi per PC che abbandonarono in grandissima parte la grafica 2D per passare a quella 3D, che necessitava di hardware dedicato e potenze di calcolo enormi.

Questo spinse i produttori a sfornare nuove versioni di schede e processori, sempre più veloci, in una rincorsa che dura tutt’oggi.

Laddove i giochi precedenti facevano affidamento sulla CPU per tutto il processo di rendering, queste nuove schede grafiche aggiungevano ai sistemi una GPU (unità di elaborazione grafica), sgravando il carico di elaborazione grafica dal processore. Questa novità ha permesso di realizzare giochi notevolmente più frenetici e la possibilità di utilizzare effetti grafici sorprendenti e sempre più sofisticati.

Sebbene 3dfx abbia cercato di conquistare il mercato con le sue API proprietarie Glide, alla fine dovette arrendersi contro i suoi concorrenti, che scelsero di utilizzare librerie standard come DirectX e OpenGL di Silicon Graphics.

L'ultima scheda degli anni '90 fu la Nvidia GeForce 256 del 1999 che mise i chiodi sulla cassa di 3dfx. L’azienda venne comprata da Nvidia che acquisì anche il suo pacchetto tecnologico, tra cui la tecnologia SLI, di cui portò avanti lo sviluppo negli anni successivi.

AMD nel frattempo andò rafforzandosi sempre più, grazie ad una serie di processori relativamente potenti ma adatti al gaming. Nel 1996, rilasciò il K5, il primo effettivo rivale della CPU Pentium, ma il vero successo arrivò solo nel 1997 con il K6.

Questo processore andò immediatamente in concorrenza diretta con il nuovo Pentium II, in particolar modo perché poteva funzionare anche sulle vecchie schede madri Socket 7 dei Pentium, rendendolo un aggiornamento poco costoso.

La serie K6 ebbe un enorme successo, in particolare grazie alle istruzioni 3DNow! e a prezzi più convenienti di quelli Intel. I successivi chip K6-2 e K6-3 di AMD continuarono a rivaleggiare con i modelli Pentium II e III più evoluti, per dominare alla fine del decennio gran parte del mercato dei PC economici.

Il decennio era iniziato con la CPU più veloce, il 486, con una frequenza massima di 25 MHz, per concludersi con il K7 Athlon del 1999, la prima CPU al dettaglio a superare la frequenza di 1GHz.

Gli anni '90 sono stati un periodo di sopravvivenza del più forte, conclusosi con la presenza di un sistema operativo dominante e due produttori di CPU a farla da padrone. Molto vivace all’inizio del decennio, anche il mercato delle GPU si stava riducendo al duopolio Nvidia e ATI che conosciamo oggi (AMD ha acquisito ATI nel 2006).

Oltre al lancio di Linux Format, il precursore della Linux Foundation in fase di formazione e di Corel Linux, il nuovo secolo inizia con l’arrivo di Windows 2000, probabilmente la migliore versione di Windows dell’epoca e Windows Me, probabilmente la peggiore di tutti i tempi.

Windows 2000 era basato sulla piattaforma NT di Microsoft, allontanando finalmente Windows da DOS, ma rimanendo relativamente compatibile con le versioni precedenti di Windows 9x, anche se con scarso supporto per i videogiochi.

In quel periodo andarono molto di moda i sistemi dual boot, con l'installazione di Windows 98SE, seguita da una seconda installazione di Windows 2000. In questo modo si ottenevano i vantaggi di entrambi i sistemi operativi, ma erano necessarie più licenze e si doveva effettuare il reboot ogni volta che si voleva cambiare il sistema operativo. Questo favorì anche la pirateria dei sistemi operativi Microsoft, ma ne aumentò a dismisura la diffusione.

Il problema venne risolto nell'ottobre 2001 quando fu rilasciato Windows XP, che utilizzava la stessa base NT di Windows 2000, ma con un'interfaccia rinnovata e capacità multimediali estremamente migliorate. E mentre le versioni precedenti di Windows erano piuttosto scialbe, XP aveva un aspetto molto più vivace.

XP aveva anche reso la pirateria più difficile, essendo il primo Windows a possedere un processo completo di attivazione, ma soprattutto era finalmente diventato possibile giocare ai titoli compatibili con Windows 98, con la stabilità garantita da un sistema basato su NT.

In quegli anni, gli sviluppatori Linux iniziarono ad affrontare seriamente lo sviluppo delle versioni desktop e Ubuntu venne rilasciato nel corso del 2004, l’anno “del PC Linux”.

 

L'alba dei 32 bit

Probabilmente il 386 a 32 bit è il processore che diede inizio all'informatica moderna. 

Le caratteristiche di un sistema operativo moderno per PC sono state introdotte in gran parte con questo processore, servendo come base e specifica minima per le nuove generazioni di sistemi operativi negli anni '90.

Dopo il lancio del 386, i sistemi operativi desktop fecero un balzo generazionale e furono eseguiti porting di diverse varianti Unix sulla piattaforma PC.

L'elaborazione avanzata, precedentemente dominata da costose workstation Unix, iniziò a migrare su PC non appena questo si convertì ai 32 bit. Le grandi aziende votate a Unix come DEC e Sun Microsystems iniziarono così a cadere in rovina. Fino alla fine del 2012, un PC 386 era ancora capace di eseguire Linux, oltre 25 anni dopo la sua introduzione.

L'era dei 64 bit

Nell'aprile 2003, AMD rilasciò il processore Opteron a 64 bit. Questa fu la più grande novità della piattaforma x86 non realizzata da Intel, e sarebbe stata etichettata come x86-64 o AMD64. Un fatto piuttosto imbarazzante per Intel che l’aveva lanciata poco più di 20 anni prima. 

Intel fu costretta a modificare i propri processori con le nuove specifiche di AMD per mantenere la compatibilità del software. L’azienda aveva giocato d’azzardo lanciando la propria architettura Itanium IA-64 EPIC, ma era costosa e non offriva alcun vantaggio in termini di prestazioni rispetto a RISC o AMD64.

Nel maggio 2005, IBM decise di abbandonare completamente la divisione PC che aveva creato, vendendola a Lenovo nel mezzo di un accordo del valore di quasi 2 miliardi di dollari. C’era molto scetticismo sulla fattibilità di tale fusione, ma Lenovo è infine diventato il più grande fornitore di PC al mondo, mentre IBM è rimasta focalizzata sul mercato della grande industria e sull’innovativo Cloud.

Intanto, nel giugno 2005, Apple annunciò che i Mac sarebbero passati dai processori PowerPC a quelli x86. Steve Jobs era rimasto deluso dal progresso delle CPU PowerPC, che erano più lente di quanto Apple aveva promesso ai consumatori, troppo calde per essere montate sui notebook e consumavano anche troppa energia.

Successivamente, tra luglio e ottobre 2006, AMD acquisì la società ATI Technologies con un accordo del valore di 5,6 miliardi di dollari. Unendo la tecnologia grafica di ATI con il suo know-how nel campo delle CPU, AMD iniziò ad assumere le stesse proporzioni di Intel e Nvidia.

Qualcuno ha detto BeOS?

Be Inc. (fondata da un ex dirigente Apple, il francese Jean-Louis Gassée) lanciò il sistema a doppio processore BeBox nell'ottobre 1995, dotato di un proprio sistema operativo, chiamato BeOS. Ottimizzato per le prestazioni multimediali, BeOS avrebbe dovuto competere con le versioni contemporanee di Mac OS e Windows.

Il sistema operativo era velocissimo e privo dei retaggi del vecchio hardware a 16 bit, nonché dotato di funzionalità come la multielaborazione simmetrica per macchine multi-CPU, multitasking preventivo e file system BFS journaled a 64 bit.

Sebbene BeBox non ebbe grande successo, BeOS fu portato su Macintosh nel 1996 diventando uno dei candidati alla sostituzione di Mac OS, che ormai era inadeguato. Tuttavia, la cifra di 300 milioni di dollari richiesta da Gassée era troppo alta e Apple decise pertanto di optare per il sistema operativo NeXTSTEP di Steve Jobs, che nel 1997 ritornò nell'azienda che lo aveva cacciato anni prima.

BeOS fu portato successivamente su PC nel 1998, con la versione minimalista gratuita BeOS 5.0 Personal Edition, ma non riuscì a raccogliere grandi consensi, finendo per venire relegato ad un piccolo pubblico di nicchia. Be Inc. fu poi rilevata da Palm Inc. nel 2001.

Nonostante i numerosi revival, BeOS è ora sopravvissuta grazie ad Haiku, una popolare implementazione open source con compatibilità binaria con BeOS a 32 bit.

L'era dell'open source

Nel gennaio 2007 venne rilasciato Windows Vista. Il nuovo sistema operativo Microsoft era stato progettato per essere più sicuro, con una GUI aggiornata e utilizzava effetti come la trasparenza delle finestre, ma nonostante le novità finì per essere smontato dalla stampa.

Windows Vista aveva una pessima compatibilità con le versioni precedenti, lunghi tempi di caricamento, problemi con i driver e un eccesso di messaggi di sistema invasivi.

Windows 7 prese il suo posto nel 2009. Era basato sulla stessa piattaforma di Vista, ma il codice fu perfezionato e portò miglioramenti delle prestazioni, una maggiore stabilità e un'interfaccia migliore e più coerente.

Grazie alle sue caratteristiche Windows 7 divenne il sistema operativo più venduto nella storia e circa un terzo dei PC lo utilizza ancora oggi, nonostante Microsoft abbia dichiarato terminato il supporto per il sistema operativo all'inizio del 2020.

L’ultimo decennio

Nel luglio 2012, il browser Chrome di Google ha superato in popolarità Internet Explorer e nell'aprile del 2013 sia Chrome che Firefox potevano contare su una quota maggiore di utenti rispetto ad Internet Explorer stesso, ponendo fine a 15 anni di predominio Microsoft nel mercato dei browser.

Nell'ottobre 2012 venne anche rilasciato Windows 8. Nonostante i tentativi di innovazione voluti da Microsoft, Windows 8 fu decisamente criticato. Poiché i dispositivi mobili erano sulla buona strada per superare i PC desktop tradizionali, Windows 8 fu creato con un'interfaccia più "touch", rimuovendo il pulsante "Start" e passando a un design basato su tiles.

Il risultato fu decisamente negativo, pertanto Windows 8.1 venne in soccorso per rimediare a molte delle critiche ricevute in precedenza. Riportò in auge il pulsante "Start" e permise agli utenti di utilizzare il tradizionale desktop PC. Ma ancora una volta, il danno era ormai stato fatto. Il più vecchio Windows 7 è ancora ampiamente utilizzato, mentre Windows 8 è in pratica scomparso in favore del più recente sistema operativo di Microsoft.

Windows 10 è stato rilasciato nel luglio 2015 con un'accoglienza tiepida. L'interfaccia di Windows 10, combina la GUI tradizionale di Windows 7 e il sistema di riquadri appartenuto a Windows 8, con l’aggiunta dei desktop virtuali, una funzionalità che Linux offre da decenni.

Da allora il sistema operativo ha scalato il mercato, ma non è tutto oro ciò che luccica.

Gli aggiornamenti di sistema forzati sono stati molto criticati dagli utenti, il menu Start ora comprende pubblicità indesiderata e c'è una quantità preoccupante di raccolta dati, con il Microsoft Store pronto a minare la natura aperta della piattaforma PC.

Linux

(Image credit: Image Credit: Pixabay)

Nonostante ciò, Microsoft domina ancora il mercato dei PC consumer, ma non è più la società monopolista del passato. Apple è diventata più ricca di Microsoft. Linux si è insinuato praticamente in qualsiasi dispositivo, dai lettori DVD ai più potenti supercomputer del mondo e mantiene una presenza del mercato desktop del 3%.

Microsoft è passata da considerare Linux "un cancro" al proclamare che "ama Linux", distribuendo Windows con l’aggiunta di un kernel Linux e utilizzando un propria distribuzione, Azure Sphere Linux.

Microsoft ha anche basato la versione rinnovata del proprio browser Edge sul progetto Chromium e rilasciato diversi progetti come Open Source.

Quello dei PC non è oggi il mercato dominante che fu in passato e IBM ha lasciato da tempo il settore che aveva creato da zero. L'informatica oggi è più varia e possiede molte più forme, a partire dai tablet agli smartphone, dai Chromebook agli strani dispositivi Android difficili da classificare.

Essa è tornata a un livello di diversità simile a quello degli anni '80, ma il PC non ha più la stessa supremazia e non ce l’hanno nemmeno i giganti che lo avevano creato, come IBM, Intel e Microsoft.

 

La storia di Linux... in pillole

25 AGOSTO 1991 - l’annuncio di Linus su comp.os.minix

A Linus Torvalds, uno studente di 21 anni dell'Università di Helsinki, Finlandia, balena l'idea di creare il proprio clone del sistema operativo Minix.

17 SETTEMBRE 1991 - v0.01 Pubblicato su ftp.funet.fi

Questa versione include Bash v1.08 e GCC v1.40. Al momento, il sistema operativo è solo una sorgente priva di codice proprietario Minix e dispone di un file system multi-thread.

NOVEMBRE 1991 - v0.10 Linux si autocostruisce

Linus sovrascrive le parti critiche della sua partizione Minix. Poiché non poteva avviare Minix, ha deciso di scrivere i programmi necessari per compilare Linux autonomamente.

5 GENNAIO 1992 - Licenza v0.12 GPL

Originariamente Linux possedeva una propria licenza per limitarne l'attività commerciale. Linus passa con questa versione alla GPL.

7 MARZO 1992 - v0.95 X windows

Un hacker di nome Orest Zborowski porta X Windows su Linux.

14 MARZO 1994 - v1.0.0 C ++ compilato

La prima versione di produzione. Linus era stato eccessivamente ottimista nel titolare la v0.95 e ci sono voluti circa due anni per arrivare alla versione 1.0.

7 MARZO 1995 - v1.2.0 Linux '95

La portabilità è uno dei primi problemi da affrontare e questa versione ottiene il supporto per i computer che utilizzano processori basati sulle architetture Alpha, SPARC e MIPS.

9 GIUGNO 1996 - v2.0.0 supporto SMP

Viene aggiunto il Symmetric multiprocessing (SMP). Ciò rende Linux serio agli occhi di molte aziende.

20 FEBBRAIO 2002 - CPU v2.5.5 a 64 bit

La prima versione a supportare AMD a 64 bit (x86-64) e PowerPC a 64 bit.

17 DICEMBRE 2003 - v2.6.0 “Beaver in Detox!”

Viene effettuata una importante revisione dei moduli caricabili del kernel (LKM). Vengono migliorate le prestazioni per l'hardware di classe enterprise, il sottosistema di memoria virtuale, lo scheduler della CPU e lo scheduler I/O.

29 NOVEMBRE 2006 - v2.6.19 ext4

Viene aggiunto il supporto sperimentale per il filesystem ext4.

5 FEBBRAIO 2007 - Arriva la v2.6.20 KVM

Viene aggiunta la macchina virtuale basata su kernel (KVM). Vengono implementate le estensioni di virtualizzazione hardware di Intel e AMD.

25 DICEMBRE 2008 - v2.6.28 Riscrittura del sistema grafico

Lo stack grafico di Linux viene aggiornato completamente per garantire lo sfruttamento di tutta la potenza delle moderne GPU.

21 LUGLIO 2011 - v3.0 Linux compie 20 anni 

Questa versione non comporta importanti grandi cambiamenti tecnologici, ma segna invece il 20° anniversario del kernel.

18 MARZO 2012 - Supporto il boot EFI v3.3

Uno stub di avvio EFI consente di caricare ed eseguire bzImage x86 direttamente dal firmware EFI.

12 APRILE 2015 - Rilasciata la v4.0 Hurr Durr I'ma Sheep

Linus Torvalds decide di richiedere il passaggio alla nuova versione a 4.x, approvandone il nome.

MARZO 2019 - v5.0 Shy Crocodile

Le principali novità includono: WireGuard, USB 4, correzione 2038, correzioni Spectre, supporto RISC-V, exFAT, AMDGPU e molto altro ancora.

2021...- v6 + Il futuro...

2022 il Metaverso

2023 l'AI L'intelligenza artificiale arriva nel nostro mondo

26 APRIL 2023 / DI REDAZIONE OSSERVATORI DIGITAL INNOVATION / 0 COMMENTS

L'Intelligenza Artificiale (IA) è una tecnologia recente con una storia ancora tutta da raccontare. Si parte dagli anni Cinquanta: in principio fu il test di Alan Turing. Si prosegue con le prime teorie di reti neurali, di IA forte e di IA debole, con le prime applicazioni industriali degli anni Ottanta. Fino ai giorni d'oggi, giorni in cui l'Intelligenza Artificiale è ormai al centro delle scelte tecnologiche di imprese e governi, nonché parte della vita quotidiana di tutti noi. In quest'articolo abbiamo provato a fare un breve viaggio nella storia dell'Intelligenza Artificiale, tra i momenti culminanti che hanno caratterizzato nascita, evolversi e affermarsi di questo paradigma. Dalle origini a oggi, con un occhio attento al futuro.

Dove e quando nasce l'Intelligenza Artificiale: il contributo di Alan Turing

Le prime tracce di Intelligenza Artificiale come disciplina scientifica risalgono agli anni Cinquanta. Era un periodo di grande fermento scientifico sullo studio del calcolatore e il suo utilizzo per sistemi intelligenti. Nel 1956, al Darmouth College, nel New Hampshire, si tenne un convegno al quale presero parte i maggiori esponenti dell’informatica: in quell’occasione si raccolsero i principali contributi sul tema, ponendo anche l’attenzione sugli sviluppi futuri.

Durante il convegno di Darmouth ebbe un ruolo fondamentale il lavoro di Alan Turing, considerato uno dei padri dell’informatica moderna: già nel 1936 aveva posto le basi per i concetti di calcolabilità, computabilità e la macchina di Turing. Nel 1950, lo stesso Turing, scrisse l’articolo intitolato “Computing machinery and intelligence”, in cui proponeva quello che sarebbe divenuto noto come test di Turing. Secondo il test, una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, fosse considerato indistinguibile da quello di una persona.

Grazie al lavoro di Turing, il tema dell’Intelligenza Artificiale ricevette una forte attenzione da parte della comunità scientifica e nacquero diversi approcci: fra tutti, i principali furono la logica matematica (per la dimostrazione di teoremi e l’inferenza di nuova conoscenza) e le reti neurali (nell’ultimo decennio la loro tecnologia è stata implementata e oggi vengono applicate nell’ambito del Deep Learning, un ramo del Machine Learning).

Vuoi restare sempre aggiornato sui temi dell'Osservatorio Artificial Intelligence?

Intelligenza Artificiale Forte e Debole

Col tempo, le aspettative sulle applicazioni dell’Intelligenza Artificiale iniziarono a crescere: nel 1957, ad esempio, Herbert Simon stimò che nel giro di dieci anni la comunità scientifica avrebbe sviluppato un’intelligenza artificiale in grado di competere con i campioni di scacchi.

Tuttavia, poiché i macchinari dell’epoca non disponevano di una capacità computazionale adeguata, questa e altre aspettative non furono mantenute e ciò portò alla frammentazione dell’Intelligenza Artificiale in distinte aree basate su teorie diverse. In quel contesto emersero due paradigmi principali: Intelligenza Artificiale Forte e Debole.

IA Forte

La teoria dell’Intelligenza Artificiale Forte sostiene che le macchine siano in grado di sviluppare una coscienza di sé. Questo paradigma è supportato dal campo di ricerca nominato Intelligenza Artificiale Generale, che studia sistemi in grado di replicare l’intelligenza umana.

Quest'area di ricerca ha ricevuto però poco interesse da buona parte della comunità scientifica che ritiene l’intelligenza umana troppo complessa per essere replicata 

IA Debole

Il paradigma dell’Intelligenza Artificiale Debole, in opposizione al primo, ritiene possibile sviluppare macchine in grado di risolvere problemi specifici senza avere coscienza delle attività svolte. In altre parole, l’obiettivo dell’IA Debole non è realizzare macchine dotate di un’intelligenza umana, ma di avere sistemi in grado di svolgere una o più funzioni umane complesse.

Un esempio chiaro del modello Debole è un programma per giocare a scacchi: diversamente dall’Intelligenza Artificiale Forte, quella Debole non ha coscienza di sé e non presenta le abilità cognitive degli esseri umani, ma si focalizza sul problema da risolvere in un ambito specifico e, in quell’ambito, si dimostra intelligente, cioè in grado di agire.

L'Intelligenza Artificiale oggi

Basandosi sul paradigma dell’Intelligenza Artificiale Debole, a partire dagli anni Ottanta sono state sviluppate le prime applicazioni di Intelligenza Artificiale in ambito industriale. In particolare, la prima intelligenza artificiale applicata in ambito commerciale fu R1, sviluppata nel 1982 dall’azienda Digital Equipment per configurare gli ordini di nuovi computer: quattro anni dopo, l’azienda era in grado di risparmiare 40 milioni di dollari all’anno.

Oggi l’Intelligenza Artificiale rappresenta uno dei principali ambiti di interesse della comunità scientifica informatica, con temi di ricerca come il Machine Learning, l’elaborazione del linguaggio naturale e la robotica. Inoltre, le aziende informatiche stanno investendo sempre di più in questo settore e i progressi tecnologici sono sotto gli occhi di tutti. La sua portata è talmente rivoluzionaria che solo le aziende capaci di sviluppare un'AI Strategy riusciranno a implementarla con successo e a coglierne il potenziale.

 

 

Torna al blog

Lascia un commento

Si prega di notare che, prima di essere pubblicati, i commenti devono essere approvati.