Storia dell’informatica I: le metodologie di calcolo



20091113ps2Oggi siamo abituati a computer dalle dimensione microscopiche, a supporti in grado di immagazzinare enormi quantità di dati in dimensioni contenute, ad applicazioni che permettono in pratica di fare qualsiasi cosa si voglia. Per molti di noi tutto ciò è normale, e siamo portati quasi a credere che sia sempre stato cosi. E invece non è vero!

Questo sarà uno dei tanti articoli che ci porteranno alla scoperta dell’informatica delle origini, l’informatica delle schede perforate e della riga di comando tanto per fare un esempio. Un’occasione buona sia per i nostalgici dell’informatica che fu, desiderosi di tornare ai vecchi tempi, sia per i più giovani, per imparare da dove deriva tutto quello che abbiamo oggi.

Come primo argomento parliamo dell’evoluzione delle modalità di elaborazione, ovvero del modo in cui le diverse istruzioni vengono interpretate ed elaborate da un computer.

In principio esistevano le elaborazioni batch: i primi sistemi operativi meccanizzavano il lavoro degli operatori accettando comandi con i quali gli veniva comunicato l’ordine di esecuzione dei vari lavori e il luogo dove reperire i dati; una volta partito il lavoro, il sistema operativo prelevava, al momento opportuno, il lotto (batch) dei dati per consentirne l’elaborazione. Questa modalità di elaborazione riusciva a meccanizzare egregiamente le elaborazioni basate sul trattamento sequenziale di un grande volume di dati.

Successivamente però questa modalità di elaborazione non era più in grado di soddisfare al meglio le necessità di chi si trovava in diretto contatto con gli utenti finali. Si pensò allora a nuovi strumenti software in grado di interfacciare gli utenti finali con il sistema di elaborazione: nasceva così la modalità di elaborazione interattiva.

La nascita dei primi minicomputer negli anni ’60 consentì ad un numero limitato di utenti il contemporaneo accesso alle risorse di calcolo, riservando ad ognuno una parte del tempo e delle risorse complessive: si trattava dei sistemi cosiddetti Time Sharing. Si trattava in sostanza di suddividere tra i vari utenti le risorse disponibili.

Con la nascita dei Personal Computer negli anni ’70 e soprattutto con l’introduzione delle prime LAN, si cercò di trasferire la maggior parte delle attività verso queste nuove architetture ritenute più semplici e meno costose. Questa sorta di downsizing ha portato alla nascita delle eleborazioni individuali.

L’architettura di calcolo che invece oggi si è affermata di più, grazie alla grande disponibilità di strumenti software diversi ed alla evoluzione delle telecomunicazioni, è quella client/server. In questo tipo di elaborazione esistono principalmente tre tipi di “attori” diversi: chi necessita del servizio, cioè un programma applicativo, il software client vero e proprio che interfaccia il programma applicativo da un lato e il programma server dall’altro, e chi eroga il servizio, ovvero il programma server.

Altre due divere modalità che stanno invece prendendo piede sono il Grid Computing e la Service Oriented Architecture: l’obiettivo del grid computing è quello in sostanza di rendere disponibili delle risorse, condivise, a chi ne ha bisogno quando ne ha bisogno; mentre la SOA è più che altro un modo per progettare i sistemi informativi basate su tre entità, l’utilizzatore del servizio, il fornitore del servizio e l’intermediario.

L’utilizzatore non dovrà preoccuparsi del “come” un certo servizio è implementato ma, semplicemente, lo utilizzerà instaurando con il fornitore un dialogo tramite un linguaggio comune.

Annunci sponsorizzati:
Condividi su Facebook Condividi su Twitter!
  • Paolo

    Complimenti davvero un gran bell’articolo!!! Credevo che i primi computer fossero del 70 ti dirò!!! Vorreti scrivere anche nel just pay to write??

  • @paolo
    scusa ma non ho capito la domanda? dovrei scrivere io nel just pay to write o vorresti iniziare tu a scrivere articoli?
    ciao

Pinterest