Indice degli argomenti di Informatica
1) Informatica – 2) Etimologia e significato – 3) Cenni storici – 4) Caratteristiche – 5) Terminologia di base
L’informatica è la scienza che si occupa del trattamento dell’informazione mediante procedure automatizzate, avendo in particolare per oggetto lo studio dei fondamenti teorici dell’informazione, della sua computazione a livello logico e delle tecniche pratiche per la sua implementazione e applicazione in sistemi elettronici automatizzati detti quindi sistemi informatici; come tale è una disciplina fortemente connessa con la logica matematica, l’automatica, l’elettronica e anche l’elettromeccanica.
Si accompagna e si integra o è di supporto a tutte le discipline scientifiche, e come tecnologia pervade pressoché qualunque “mezzo” o “strumento” di utilizzo comune e quotidiano, tanto che (quasi) tutti siamo in qualche modo utenti di servizi informatici. La valenza dell’informatica in termini socio-economici ha scalato in pochi anni la piramide di Anthony, passando da operativa (in sostituzione o a supporto di compiti semplici e ripetitivi), a tattica (a supporto della pianificazione o gestione di breve termine), a strategica. In tale ambito l’informatica è diventata talmente strategica nello sviluppo economico e sociale delle popolazioni che il non poterla sfruttare, uno status ribattezzato con l’espressione divario digitale, è un problema di interesse planetario.
Assieme all’elettronica e alle telecomunicazioni unificate insieme sotto la denominazione Tecnologie dell’informazione e della comunicazione (TIC), rappresenta quella disciplina e allo stesso tempo quel settore economico che ha dato vita e sviluppo alla terza rivoluzione industriale attraverso quella che è comunemente nota come rivoluzione digitale. L’informatica si evolve soprattutto nel campo della telefonia.
Etimologia e significato
Il supercomputer Columbia della NASA nel NASA Advanced Supercomputing facility
Il termine italiano “informatica” deriva da quello francese “informatique”, contrazione di informat(ion) (automat)ique, coniato da Philippe Dreyfus nel 1962.[1][2][3][4] Il primo utilizzo italiano risale al 1968.[4]
Nei paesi anglofoni, “informatica” si dice “computer science”, espressione che appare per la prima volta in un articolo del 1959 in Communications of the ACM[5], nel quale Louis Fein discute la creazione di una Graduate School in Computer Sciences analoga alla Harvard Business School, giustificando il nome dicendo che, come la management science, la computer science è per sua natura una materia di studio applicata e interdisciplinare, avendo allo stesso tempo le caratteristiche tipiche di una disciplina accademica.[5] I suoi sforzi, e quelli di altri come l’analista numerico George Forsythe, saranno ricompensati: le università istituiranno tali corsi, a partire da Purdue nel 1962.[6][7] In Gran Bretagna è utilizzato anche il termine “informatics”.
Il calcolatore, lo strumento base dell’informatica, è diventato insostituibile nei campi più disparati della vita e della scienza, grazie alla velocità di calcolo e alla notevole flessibilità della sua architettura-tipo, il modello di Von Neumann. È importante anche notare il differente significato di origine tra queste tre lingue nel denominare il computer:[8]
- elaboratore (o calcolatore), in italiano, per le sue svariate capacità di elaborazione (anche se oggi il termine più utilizzato è computer);
- ordinateur, in francese, a sottolineare le sue capacità di organizzare i dati e le informazioni;
- computer, in inglese, letteralmente calcolatore, in diretta discendenza delle calcolatrici, prima meccaniche, poi elettromeccaniche, poi elettroniche.
Il principio fondamentale dell’informatica, che è anche il significato della parola stessa, è che attraverso un calcolatore l’utente ottiene delle informazioni a partire da dati, per mezzo di una elaborazione automatica (mediante una procedura stabilita in precedenza, cioè il programma[9]). Il programmatore organizza e scrive le istruzioni del programma (attraverso specifici linguaggi di programmazione), il programma viene installato su un calcolatore e infine quest’ultimo ne esegue le istruzioni programmate, rispondendo agli input dell’utente. Un input è una immissione, inserimento, ingresso di dati, a cui segue l’elaborazione, che si conclude con l’output, ovvero un’uscita di informazioni organizzate in modo tale da trarne conoscenza.[10] Dunque, l’attività di un calcolatore è essenzialmente l’esecuzione di calcoli logico-aritmetici, che vengono svolti eseguendo istruzioni precedentemente impartitegli da un programmatore.
Il calcolatore non è dotato di una qualche forma di autocoscienza, poiché possiede una forma di intelligenza sui generis che prescinde dalla consapevolezza. Secondo Yuval Noah Harari non occorre, per portare a termine un compito che richiede l’elaborazione di dati, che un dispositivo di calcolo restituisca un risultato valutando anche esperienze soggettive.[11] Egli scrive che «oggi stiamo sviluppando nuovi tipi di intelligenza non cosciente che possono portare a termine tali compiti [giocare a scacchi, guidare automobili, ecc.] in modo assai più efficace degli umani, poiché tutti questi compiti sono basati sul riconoscimento di pattern», e che «le esperienze soggettive di un tassista in carne e ossa sono infinitamente più ricche di quelle di un’auto a guida autonoma, che non prova assolutamente nulla. […] Ma il sistema non ha bisogno di niente di tutto questo da un tassista. Tutto quello che vuole davvero è che i passeggeri siano portati dal punto A al punto B nel modo più veloce, sicuro ed economico possibile. E l’auto a guida autonoma sarà presto in grado di fare meglio di un conducente umano, anche se non può godere della musica o rimanere impressionata dalla magia dell’esistenza».[11]
Una branca specifica dell’informatica, l’intelligenza artificiale (IA), si occupa di creare tecniche, algoritmi e programmi atti a simulare processi di pensiero e ragionamento. Queste tecniche non sono meno algoritmiche e deterministiche nei loro esiti di quelle usate in altri settori dell’informatica, tuttavia hanno il potenziale di catturare conoscenza e farne uso per fornire risposte spesso di qualità superiore a quella ottenibile mediante l’uso di esperti umani. Secondo i filosofi, l’intelligenza artificiale delle macchine non è vera e propria intelligenza, in quanto a esse mancano la coscienza di essere-nel-mondo e un rapporto concreto con l’ambiente circostante, caratteristiche tipiche dell’essere umano.[12] Di recente lo studio dell’informatica ha anche assunto rilevanza multidisciplinare nel cercare di chiarire o giustificare processi e sistemi complessi del mondo reale, quali ad esempio la capacità del cervello umano di generare pensieri a partire da interazioni molecolari (studi facenti capo alla bioinformatica).
Cenni storici
Vari strumenti di calcolo antecedenti al moderno computer
La storia dell’informatica in realtà comincia ben prima dell’invenzione del computer moderno. Infatti, già l’abaco (anch’esso un dispositivo digitale, ma ovviamente di minima complessità) veniva utilizzato nell’antichità per fare le semplici quattro operazioni. Si riscontrano anche altri dispositivi automatici come le macchine di Erone, gli automi di alcuni ingegneri arabi nel Medioevo, l’automa cavaliere di Leonardo da Vinci. È stato proprio un matematico arabo, Muḥammad ibn Mūsā al-Khwārizmī, a sistematizzare l’algebra (non ancora binaria); dal suo nome sarà coniato il termine “algoritmo”, che sta a indicare una sequenza finita di operazioni.
L’orologio calcolatore di Schickhard (1592-1635), la Pascalina di Pascal (1623-1662), la Stepped Reckoner di Leibniz (1646-1716), sono stati i primi calcolatori analogici utilizzati come strumenti ausiliari per i calcoli matematici. Babbage (1791-1871) ideò una macchina per il calcolo automatico di grande complessità, la macchina differenziale, che riuscì a realizzare tra mille difficoltà, anche per i limiti della meccanica del tempo. Grazie a un metodo detto delle differenze, particolarmente adatto a essere espresso in termini meccanici, Babbage creò un sistema per l’esecuzione automatica dei calcoli necessari per la compilazione delle tavole matematiche. Ideò poi, partendo dalle schede perforate del francese Jacquard, una nuova macchina, la macchina analitica: per essa, identificò un’unità di calcolo numerico (noi diremmo un processore), una unità di controllo dell’esecuzione, una memoria per conservare i risultati intermedi e un dispositivo di uscita per visualizzare il risultato del calcolo.
I padri dell’informatica moderna sono John von Neumann (1903-1957) e Alan Turing (1912-1954). Al primo si deve l’organizzazione concettuale del moderno calcolatore, oggi nota come architettura di von Neumann; al secondo invece dobbiamo studi sulla crittografia (disciplina già avviata nei secoli precedenti) e la formalizzazione della Macchina di Turing, il modello di “macchina” fondamento teorico di ogni moderno sistema programmabile.[10]
Si vedano le voci: Cronologia dei computer dal 1950 al 1979, Cronologia dei computer dal 1980 al 1989, Cronologia dei computer dal 1990 al 1999, Cronologia dei computer dal 2000 al 2009, Cronologia dei computer dal 2010 al 2019.
Caratteristiche
Descrizione
Schema di astrazione ed esecuzione dall’utente all’hardware passando per il software e il sistema operativo
Esistono frange di persone che confondono l’informatica con aree professionali che tipicamente riguardano l’utilizzo dei programmi per l’ufficio (come Microsoft Office), la navigazione sul web o il gaming. In realtà, l’informatica vera e propria (che si distingue in teorica e applicata) è lo studio di procedure, algoritmi e linguaggi capaci di permettere a una macchina di eseguire operazioni in modo automatico, e perciò richiede notevoli conoscenze e competenze in materie di studio come la matematica, logica, linguistica, psicologia, nonché elettronica, automatica, telematica, e altre. Mentre occorrono notevoli conoscenze tecniche per appartenere alla categoria degli informatici di professione, per appartenere a quella degli utenti finali ne occorrono decisamente di meno – talvolta solo il minimo indispensabile – e questo grazie al lavoro dei primi, costantemente orientato a rendere sempre più semplice l’uso del computer per tutti.[10] Un informatico dovrebbe sempre avere un interesse genuino per i fondamenti teorici dell’informatica; che poi, per professione o per passione, spesso faccia lo sviluppatore di software è possibile ma, potendo sfruttare le proprie capacità di problem solving (soluzione di problemi) in diversi ambiti, non è scontato. In ogni caso l’informatica, almeno nella sua parte applicativa, è una disciplina fortemente orientata al problem solving.
L’informatica, oggi autonoma disciplina di studio, nasce dal convergere di differenti campi disciplinari che, per vie diverse, si sono posti il problema di come automatizzare il calcolo, cioè la manipolazione di simboli attraverso determinate regole, rendendolo eseguibile da una macchina.[13] Ma i fondamenti teorici della disciplina discendono direttamente dalla matematica (matematica discreta), a cui l’informatica è strettamente legata. L’informatica vera e propria spazia tra diversi campi più ristretti: lo studio dei linguaggi formali e degli automi, che riguarda anche i compilatori; lo studio della complessità computazionale, in particolar modo per la minimizzazione del numero di istruzioni da eseguire per la risoluzione di un problema e per la ricerca di algoritmi approssimati per risolvere problemi NP-difficili; la crittologia, la scienza che studia i metodi per rendere un messaggio incomprensibile a chi non sia in possesso di una chiave di lettura del messaggio stesso; la teoria dei codici, utilizzata, ad esempio, per la compressione dati o per cercare di garantire l’integrità dei dati; la ricerca operativa, per fornire strumenti matematici di supporto alle attività decisionali; la computer grafica, suddivisa a sua volta in grafica bitmap e grafica vettoriale; citando solo alcuni sottocampi. Un caso particolare o sottoinsieme di informatica d’uso è l’informatica aziendale.
Terminologia di base
Data l’ampiezza del trattare l’informatica è quindi necessario definire, sia pure a grandi linee un quadro generale entro il quale comprendere la materia. Pertanto questa sezione cerca di essere un glossario introduttivo dell’intera disciplina.
- Algebra di Boole – George Boole ha introdotto una vera e propria rivoluzione nel mondo della logica, che prima di lui per due millenni era rimasta ancorata a quella codificata da Aristotele.[14] Ha fondato l’algebra della logica, creando un sistema nel quale è possibile trattare ogni relazione logica attraverso l’utilizzo di formule algebriche. Le operazioni (come l’addizione, la sottrazione e la moltiplicazione) vengono sostituite da operazioni logiche con valori di congiunzione, disgiunzione e negazione, mentre gli unici numeri utilizzati, 1 e 0, assumono rispettivamente i significati di vero e falso. Circa settant’anni dopo la morte del suo ideatore, negli anni trenta del Novecento, la logica booleana ha dato vita a una nuova (e ancor più vasta) rivoluzione quando un altro logico, nonché ingegnere elettronico, Claude Shannon, ha avuto l’idea di applicarla ai circuiti elettronici, creando così quella che è tuttora la base di funzionamento logico dei computer[14] (vedi Algebra di Boole).
- Algoritmo – un algoritmo è un procedimento sistematico di calcolo, che risolve un determinato problema attraverso una sequenza finita di passi elementari.[13] Il termine deriva dalla trascrizione latina del nome del matematico persiano al-Khwarizmi, che è considerato uno dei primi autori ad aver fatto riferimento a questo concetto. L’algoritmo è un concetto fondamentale dell’informatica, anzitutto perché è alla base della nozione teorica di calcolabilità: un problema è calcolabile quando è risolvibile mediante un algoritmo. Inoltre, l’algoritmo è un concetto cardine anche della fase di programmazione dello sviluppo di un software: preso un problema da automatizzare, la programmazione costituisce essenzialmente la traduzione o codifica di un algoritmo per tale problema in programma, scritto in un certo linguaggio, che può essere quindi effettivamente eseguito da un calcolatore rappresentandone la logica di elaborazione (vedi algoritmo).
- Applicazione – l’espressione “applicazione informatica” indica un programma che specializza il funzionamento di un computer in una determinata attività (per esempio il word processor, cioè l’elaboratore di testi, è il tipo di applicazione più diffusa nei personal computer).[4] Le prime applicazioni pratiche si ebbero tra la fine degli anni sessanta e inizio anni settanta, nelle grandi aziende, e in generale nelle grandi organizzazioni pubbliche o private, laddove soluzioni informatiche abbastanza semplici permettevano significativi risparmi di tempo nelle operazioni quotidiane e di routine. Basti ricordare INPS (a lungo capofila dell’informatica italiana), Banca d’Italia, Alitalia, Eni, Montedison, Enel. Con gli anni, e con uno sviluppo sempre più veloce delle capacità di elaborazione in parallelo all’abbassamento dei costi, l’informatica ha pervaso qualsiasi settore, fino alla vita quotidiana e all’intrattenimento personale (vedi Applicazione informatica).
- Bit – è l’unità elementare dell’informazione trattata dagli elaboratori digitali; può assumere due valori, convenzionalmente indicati dalle cifre 0 e 1. È l’abbreviazione di binary digit, ovvero “cifra binaria” (vedi bit).
- Byte – è l’unità di informazione costituita da 8 bit, usata come unità di misura della capacità di memoria di un sistema di elaborazione (vedi byte).
- Computazione – procedimento di calcolo completamente specificato, cioè composto da un numero finito di operazioni elementari o a loro volta scomponibili in operazioni elementari.[13] La computazione di una funzione, cioè il calcolo del suo valore in corrispondenza di particolari valori in ingresso, è effettuata attraverso un algoritmo espresso in un determinato linguaggio formale[13] (vedi computazione).
- Database – struttura complessa di organizzazione di dati, che permette l’inserimento di nuovi dati e la rimozione di vecchi, nonché la modifica dei dati stessi, il loro aggiornamento e la loro elaborazione.[13] L’unità informativa elementare del database è il record, inteso come stringa organizzata in campi per consentire l’archiviazione di un gran numero di informazioni anche di diverso tipo. Il record è, infatti, un insieme costituito da un numero finito di elementi, detti campi del record, ciascuno dei quali viene identificato da una stringa alfanumerica (vedi base di dati).
- File – un file è un insieme di informazioni omogenee, codificate in formato digitale, logicamente correlate e registrate su un supporto di memoria di massa di un elaboratore (disco rigido, DVD, chiave USB, ecc.).[13] I file sono tutti binari, ma possono memorizzare entità diverse e si classificano a seconda del tipo di informazioni cui si riferiscono: un programma eseguibile, un documento di testo, un’immagine, un suono, un video (vedi file).
- Hardware – nell’informatica pionieristica degli anni sessanta questo termine inglese, letteralmente “ferramenta” (il significato letterale è “merce dura”), ben si prestava a indicare le macchine utilizzate. L’hardware informatico è strettamente legato all’elettronica (analogica e digitale) di cui si avvale per la progettazione e realizzazione dei relativi sistemi. All’hardware appartiene anche il settore della rete di computer e apparati relativi. Anche con la sostituzione delle valvole termoioniche in favore dei transistor e poi dei primi circuiti integrati MOS, tali macchine erano composte da telai e pannelli metallici robusti tutti rigorosamente assemblati mediante bullonature vistose, per contenere i preziosissimi e delicatissimi circuiti elettronici che erano il cuore degli elaboratori e delle prime periferiche di base. Oggi, quando risulta difficile ritenere ferramenta un mouse o una webcam, il termine è rimasto più che altro per distinguere tutto ciò che è macchina, apparecchiatura, dai programmi (il software) per far funzionare la macchina o lo strumento. In pratica l’hardware è tutto ciò che è palpabile e visibile con gli occhi, come un disco rigido, un monitor, un cavo, un’antenna, lo stesso involucro di un PC. Altri termini descrittivi generali possono essere: risorse fisiche e materiali (vedi hardware).
- Informatica quantistica – l’informatica quantistica è l’insieme delle tecniche di calcolo e del loro studio che utilizzano i quanti per memorizzare ed elaborare le informazioni. Molte sono le differenze con l’informatica classica, soprattutto nei principi fondamentali (vedi informatica quantistica).
- Interfaccia – punto di contatto tra un computer o un dispositivo controllato da computer e l’utente, o tra due componenti fisici del computer.[4] L’interfaccia grafica utente (GUI) è invece ciò che rappresenta gli oggetti e le entità interne al computer o al programma in una forma grafica direttamente manipolabile dall’utente, per esempio configurando lo schermo come una scrivania (desktop) su cui sono attivi menu, finestre e icone[4] (vedi interfaccia e interfaccia grafica utente).
- Ipertesto – insieme di informazioni interconnesse, costituito da testi, indici gerarchici, note, illustrazioni, tabelle collegate fra loro da rimandi e collegamenti logici.[4] La sua consultazione al computer avviene per libera esplorazione dell’utente, che può decidere quali collegamenti seguire e in che ordine.[4] È la struttura su cui si basano i contenuti dei siti Internet (vedi ipertesto).
- Sistema informatico – insieme di processore e periferiche, di cui è composto un calcolatore oppure configurazione hardware e software; da non confondere con sistema informativo che è invece l’insieme delle risorse tecnologiche. Pensiamo ad esempio al telefono cellulare, alla fotocamera digitale, a una console per videogiochi. Sono tutti sistemi informatici, che ci forniscono servizi specifici. Pensiamo a un aereo moderno: al suo interno possiamo trovare non uno, ma molti sistemi informatici, ciascuno con un preciso compito. Internet nel suo insieme è un sistema informatico, formato a sua volta da una rete di sistemi informatici che lavorano per un obiettivo comune: permettere a chiunque di connettersi e scambiare informazioni con chiunque, in qualsiasi parte del globo.
- Software – il software è l’insieme dei componenti immateriali e virtuali che consentono all’utente di eseguire operazioni. È importante distinguere il software di base dal software applicativo. Il software di base serve per rendere operativo l’elaboratore, Il software applicativo serve per implementare nuove funzioni e/o rendere operative parti dell’elaboratore. Nondimeno, molte funzioni del software di base offrono valore aggiunto anche all’utente finale. Perciò, all’interno del software di base è possibile ulteriormente distinguere le funzionalità a valore aggiunto per l’utente e quelle che sono meramente di servizio per garantire il funzionamento della macchina.[15]
- Teoria dell’informazione – la teoria dell’informazione è una disciplina dell’informatica e delle telecomunicazioni il cui oggetto è l’analisi e l’elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione (vedi teoria dell’informazione).
- Teoria dei segnali – la teoria dei segnali studia le proprietà matematiche e statistiche dei segnali. Serve per rappresentare e trasmettere messaggi ovvero informazione a distanza; il sistema in questione può essere il più disparato. In elettronica un segnale viene dunque studiato attraverso un modello matematico o funzione in cui il tempo (o il suo inverso, la frequenza) è considerato variabile indipendente (vedi teoria dei segnali).