Breve biografia di Claude Shannon e fatti interessanti. La teoria dell'informazione di Claude Shannon 4 Claude Shannon fondatore della teoria dell'informazione statistica

Claude Elwood Shannon - eminente scienziato americano nel campo della matematica, dell'ingegneria, della crittoanalisi.

Ha guadagnato fama mondiale grazie alle sue scoperte nel campo dell'informatica e invenzione del “morso” (1948), come la più piccola unità informativa. È considerato il fondatore della teoria dell'informazione, le cui principali disposizioni sono ancora rilevanti nel settore delle comunicazioni high-tech e delle comunicazioni moderne.

Anche Shannon lo era fu introdotto per la prima volta il concetto di “entropia”., che indica una quantità indefinita di informazioni trasmesse.

Questo scienziato è stato il primo ad applicare un approccio scientifico alle idee informative e alle leggi della crittografia, confermando i suoi pensieri in lavori sulla teoria matematica della comunicazione, nonché sulla teoria della comunicazione nei sistemi segreti.

Ha anche dato un grande contributo allo sviluppo della cibernetica, confermando punti chiave come lo schema probabilistico, il concetto scientifico del gioco, nonché il pensiero sulla creazione di automi e sistemi di gestione.

Infanzia e adolescenza

Claude Shannon è nata a Petoskey, Michigan, Stati Uniti. Questo evento gioioso è accaduto 30/04/1916.

Il padre del futuro scienziato era impegnato in affari nel campo della difesa e poi fu nominato giudice. La madre insegnava lingue straniere e alla fine ricevette la posizione di direttrice scolastica a Gaylord.

Shannon Sr. aveva inclinazioni matematiche. Un ruolo fondamentale nel plasmare l’inclinazione del nipote verso l’attività scientifica è stato svolto dal nonno, agricoltore e inventore.

Nel suo arsenale realizzazione di una lavatrice e alcuni tipi di macchine agricole applicate. È interessante notare che Edison ha legami familiari con questa famiglia.

All'età di 16 anni, Claude si diplomò al liceo, dove insegnava sua madre. Sono riuscito a lavorare corriere per Western Union, impegnato nella progettazione di vari dispositivi.

Era interessato al modellismo di aerei e apparecchiature radio e alla riparazione di piccole stazioni radio. Con le sue mani ha realizzato una barca radiocomandata e un telegrafo per comunicare con un amico.

Come assicura lo stesso Claude, non era assolutamente interessato solo alla politica e alla fede in Dio.

Anni da studente

L'Università del Michigan aprì le sue porte a Shannon nel 1932. Studiare qui lo ha esposto alle opere di J. Boole. Claude ha conseguito la laurea in matematica ed ingegneria elettrica nel 1936.

Il suo primo lavoro fu come assistente di ricerca presso il Massachusetts Institute of Technology. Claude ha condotto le sue attività scientifiche come operatore di un dispositivo informatico meccanico creato dal suo insegnante V. Bush.

Dopo aver approfondito gli sviluppi scientifici concettuali di Boole, Shannon si rese conto della possibilità della loro applicazione pratica. Proteggere tesi di master nel 1937, sotto la supervisione di Frank L. Hitchcock, si trasferì ai famosi Bell Telephone Laboratories, dove produsse materiale sull'analisi simbolica dei circuiti di commutazione e sull'uso dei relè.

Fu pubblicato sulle pagine di una rivista speciale dell'Institute of Electrical Engineers negli Stati Uniti (1938).

Sono state rivelate le principali disposizioni dell'articolo miglioramento del routing delle chiamate telefoniche, grazie alla sostituzione dei relè di tipo elettromeccanico con un circuito di commutazione. Il giovane scienziato ha dimostrato il concetto della possibilità di risolvere tutti i problemi di algebra booleana utilizzando schemi.

Questo lavoro di Shannon ha ricevuto Premio Nobel per l'ingegneria elettrica (1940) e divenne la base per la creazione di circuiti digitali logici nei circuiti elettrici. Il lavoro di questo maestro divenne una vera svolta scientifica del ventesimo secolo, gettando le basi per la creazione della tecnologia informatica elettronica della generazione moderna.

Bush raccomandò a Shannon di portare avanti una tesi per un dottorato in matematica. Hanno prestato seria attenzione alla ricerca matematica in stretta connessione con le leggi genetiche dell'ereditarietà del famoso Mendel. Ma questo lavoro non ha mai ricevuto il dovuto riconoscimento ed è stato pubblicato per la prima volta solo nel 1993.

Gli scienziati hanno dedicato molti sforzi alla costruzione di basi matematiche per varie discipline, in particolare la tecnologia dell'informazione. Ciò è stato facilitato dalla sua comunicazione con un eminente matematico G. Weyl, così come J. von Neumann, Einstein, Gödel.

Periodo di guerra

Dalla primavera del 1941 al 1956 Claude Shannon lavora per la difesa degli Stati Uniti, sviluppare il controllo del fuoco e il rilevamento del nemico durante la difesa aerea. Ha creato un legame intergovernativo stabile tra il presidente degli Stati Uniti e il primo ministro britannico.

Gli fu assegnato il Premio Nazionale per la Ricerca per il suo articolo sulla progettazione di circuiti di commutazione bipolari (1942).

Lo scienziato si interessò alle idee dell'inglese Turing sulla crittografia vocale (1943) e già nel 1945 pubblicò un lavoro sulla media e previsione dei dati per i sistemi di controllo antincendio. I suoi coautori erano Ralph B. Blackman e H. Bode. Avendo modellato un sistema speciale che elabora informazioni e segnali speciali, loro ha inaugurato l’era dell’informazione.

Memorandum segreto di K. Shannon sul campo teoria matematica della crittografia(1945) dimostrarono che la crittografia e la teoria della comunicazione sono inseparabili.

Periodo del dopoguerra

Questa volta fu segnata dal suo memorandum sulla teoria della comunicazione da un punto di vista matematico (1948) riguardo alla codifica dei testi trasmessi.

Il lavoro successivo di Shannon fu strettamente legato alla teoria dell'informazione nel campo dello sviluppo dei giochi, in particolare alla ruota della roulette, alla macchina per la lettura del pensiero e al sulla risoluzione del cubo di Rubik.

Lo scienziato ha implementato un'idea che consente di comprimere le informazioni, evitandone la perdita durante il disimballaggio.

Lo scienziato ha creato una scuola dove conduceva periodicamente seminari, dove insegnava agli studenti a trovare nuovi approcci per risolvere determinati problemi.

Famose le sue ricerche scientifiche nella matematica finanziaria. Tra questi, il circuito elettrico del flusso di denaro nei fondi pensione americani e la logica alla base della scelta di un portafoglio di investimenti al momento dell'allocazione delle attività monetarie.

Molti paragonano la popolarità di Claude Shannon con Isaac Newton.

Dopo il 1978, in pensione, riprese la teoria della giocoleria e progettò una macchina speciale.

Claude Shannon ha pubblicato una raccolta dei suoi articoli nel 1993, dove includeva 127 dei suoi lavori scientifici.

La fase finale della vita

Ha trascorso i suoi ultimi anni presso la casa d'imbarco del Massachusetts a causa del morbo di Alzheimer. Qui, secondo la moglie Mary Elizabeth, Claude partecipò a delle ricerche per studiare i metodi per curarla.

Tutta la famiglia era costantemente con lui. La morte è avvenuta il 24 febbraio 2001.

Shannon lascia la sua unica moglie, con la quale il suo matrimonio durò dal marzo 1949. Hanno avuto figli tre bambini Roberto, Andrea, Margherita.

Negli anni '40 scienziato americano del secolo scorso K. Shannon, specializzato in questioni relative alla capacità dei canali di comunicazione e alla codifica dei messaggi, ha dato alla misura della quantità di informazioni una forma più universale : la quantità di informazione è intesa come la quantità di entropia di cui diminuisce l'entropia totale di un sistema come risultato della ricezione di informazioni da parte di questo sistema. Questa formula esprime l'entropia attraverso la somma di un numero di probabilità moltiplicate per i loro logaritmi e si riferisce solo all'entropia (incertezza) del messaggio.

Entropia – una misura quantitativa dell’incertezza rimossa durante l’ottenimento delle informazioni.

In altre parole, Il contenuto informativo di un messaggio è inversamente proporzionale alla sua ovvietà, prevedibilità, probabilità: meno il messaggio è prevedibile, non ovvio e improbabile, più informazioni trasporta per il destinatario. Un messaggio completamente ovvio (con probabilità pari a 1) è vuoto quanto la completa assenza di esso (cioè un messaggio la cui probabilità è ovviamente pari a 0). Entrambi, secondo l’ipotesi di Shannon, non sono informativi e non trasmettono alcuna informazione al destinatario. Per una serie di ragioni legate alla matematica e legate alla comodità della formalizzazione, l'entropia di un messaggio viene descritta da Shannon come una funzione della distribuzione delle variabili casuali.

L'articolo "Teoria matematica della comunicazione" fu pubblicato nel 1948 e rese Claude Shannon famoso in tutto il mondo. In esso, Shannon delineò le sue idee, che in seguito divennero la base delle moderne teorie e tecniche per l'elaborazione della trasmissione e dell'archiviazione delle informazioni. I risultati del suo lavoro nel campo della trasmissione delle informazioni attraverso i canali di comunicazione hanno lanciato un numero enorme di studi in tutto il mondo. Shannon generalizzò le idee di Hartley e introdusse il concetto di informazione contenuta nei messaggi trasmessi. Come misura dell'informazione del messaggio trasmesso M, Hartley propose di utilizzare una funzione logaritmica. Shannon fu il primo a considerare da un punto di vista statistico i messaggi trasmessi e il rumore nei canali di comunicazione, considerando sia insiemi finiti di messaggi che insiemi continui di messaggi.

La teoria dell'informazione sviluppata da Shannon ha contribuito a risolvere i principali problemi associati alla trasmissione dei messaggi, vale a dire: eliminare la ridondanza dei messaggi trasmessi, produrre codifica e trasmissione di messaggi su canali di comunicazione con rumore.

Risolvere il problema della ridondanza il messaggio da trasmettere consente l'utilizzo più efficiente del canale di comunicazione. Ad esempio, i metodi moderni e ampiamente utilizzati per ridurre la ridondanza nei sistemi di trasmissione televisiva oggi consentono di trasmettere fino a sei programmi televisivi commerciali digitali nella banda di frequenza occupata da un segnale televisivo analogico convenzionale.

Risolvere il problema della trasmissione di messaggi su canali di comunicazione rumorosi ad un dato rapporto tra la potenza del segnale utile e la potenza del segnale di interferenza nel luogo di ricezione, consente la trasmissione di messaggi sul canale di comunicazione con una probabilità arbitrariamente bassa di trasmissione di messaggi errati. Inoltre, questo rapporto determina la capacità del canale. Ciò è garantito dall'uso di codici resistenti alle interferenze, mentre la velocità di trasmissione dei messaggi su un determinato canale deve essere inferiore alla sua capacità.

In questo articolo sono presentati una breve biografia di Claude Shannon e fatti interessanti della vita dell'ingegnere, crittoanalista e matematico americano, il padre dell'era dell'informazione.

Breve biografia di Claude Shannon

Claude Elwood Shannon è nato il 30 aprile 1916 nella città di Petocki, nel Michigan. Suo padre era un avvocato e sua madre insegnava lingue straniere. Nel 1932, il giovane si diplomò al liceo e contemporaneamente fu educato a casa. Il padre di Claude comprava costantemente a suo figlio kit radioamatoriali e set da costruzione, promuovendo la sua creatività tecnica. E sua sorella maggiore gli ha insegnato lezioni di matematica approfondite. Pertanto, l'amore per la tecnologia e la matematica era evidente.

Nel 1932, il futuro scienziato entrò all'Università del Michigan. Si laureò presso l'istituto scolastico nel 1936 con una laurea in matematica e ingegneria elettrica. All'università, ha letto le opere "Calcolo logico" e "Analisi matematica della logica" dell'autore George Boole, che hanno determinato in gran parte i suoi futuri interessi scientifici.

Ben presto fu invitato a lavorare presso il Massachusetts Institute of Technology come assistente di ricerca nel laboratorio di ingegneria elettrica. Shannon ha lavorato all'aggiornamento di un computer analogico, l'analizzatore differenziale di Vannevar Bush.

Nel 1936, Claude decise di iscriversi a un master e un anno dopo scrisse la sua tesi. Sulla base di ciò, produce un articolo intitolato "Analisi simbolica di relè e circuiti di commutazione", pubblicato nel 1938 sul Journal of the American Institute of Electrical Engineers. Il suo articolo suscitò l'interesse della comunità scientifica dell'ingegneria elettrica e nel 1939 gli fu assegnato il Premio. Alfred Nobel. Senza finire la sua tesi di master, Shannon iniziò a lavorare sul suo dottorato in matematica, toccando problemi di genetica. Si chiamava “Algebra per la genetica teorica”.

Nel 1941, all'età di 25 anni, iniziò a lavorare nel dipartimento di matematica del centro di ricerca Bell Laboratories. In questo momento iniziarono le ostilità in Europa. L'America ha finanziato la ricerca di Shannon nel campo della crittografia. È stato autore dell'analisi di testi crittografati utilizzando metodi teorici dell'informazione. Nel 1945, lo scienziato completò un ampio rapporto segreto, “La teoria matematica della crittografia”.

Quali contributi ha dato Claude Shannon all'informatica?

Nella sua ricerca, lo scienziato ha preparato concetti sulla teoria dell'informazione. Nel 1948, Shannon pubblicò l'opera “Teoria matematica della comunicazione”, in cui la teoria matematica appariva come un ricevitore di informazioni e un canale di comunicazione per la sua trasmissione. Non resta che tradurre tutto in un linguaggio più semplice e trasmettere le nostre conquiste all'umanità. Claude Shannon ha introdotto il concetto di entropia dell'informazione, che denota una quantità, un'unità di informazione. Lo scienziato ha detto che un matematico gli ha consigliato di usare questo termine. Claude Shannon ha creato 6 teoremi concettuali che sono il fondamento della sua teoria dell'informazione:

  • Teorema per la valutazione quantitativa dell'informazione.
  • Teorema per l'impacchettamento razionale dei simboli durante la codifica primaria.
  • Teorema per far corrispondere il flusso di informazioni con la capacità di un canale di comunicazione senza interferenze.
  • Teorema per adattare il flusso di informazioni alla capacità di un canale di comunicazione binario con rumore.
  • Teorema per la stima della capacità di un canale di comunicazione continua.
  • Teorema per la ricostruzione senza errori di un segnale continuo.

Nel 1956, lo scienziato smise di lavorare ai Bell Laboratories e prese la posizione di professore in due facoltà del Massachusetts Institute of Technology: ingegneria elettrica e matematica.

Quando compì 50 anni smise di insegnare e si dedicò interamente ai suoi hobby preferiti. Ha creato un monociclo con 2 selle, robot che risolvono il cubo di Rubik e fanno giocoliere con le palline, e un coltello pieghevole con molte lame. Nel 1965 visitò l'URSS. E recentemente, Claude Shannon era molto malato ed è morto nel febbraio 2001 di morbo di Alzheimer in una casa di cura del Massachusetts.

Fatti interessanti su Claude Shannon

A Shannon è stato instillato l'amore per la scienza da suo nonno. Il nonno di Shannon era un inventore e agricoltore. Ha inventato la lavatrice insieme a molte altre utili attrezzature agricole

Da adolescente lui ha lavorato come fattorino alla Western Union.

Lui amava suonare il clarinetto, ascoltava musica e leggeva poesie.

Shannon sposò Mary Elizabeth Moore Shannon, che incontrò ai Bell Labs, il 27 marzo 1949. Ha lavorato lì come analista. La coppia ha avuto tre figli: Andrew Moore, Robert James e Margarita Katerina.

A Claude Shannon piaceva andare a Las Vegas nei fine settimana con sua moglie Betty e un collega per giocare a blackjack. Shannon e il suo amico hanno persino progettato il primo computer indossabile al mondo per il “conteggio delle carte”.

È stato coinvolto nello sviluppo di dispositivi in ​​grado di rilevare gli aerei nemici e puntare contro di loro cannoni antiaerei. Creò anche un sistema crittografico per il governo degli Stati Uniti, garantendo la segretezza dei negoziati tra Roosevelt e Churchill.

Amava giocare a scacchi e fare il giocoliere. Testimoni della sua giovinezza ai Bell Laboratories hanno ricordato come girava per i corridoi dell'azienda su un monociclo, mentre faceva il giocoliere con le palline.

Ha creato un monociclo con due selle, un coltello pieghevole con cento lame, robot che risolvono il cubo di Rubik e un robot che fa il giocoliere con le palline.

Shannon, secondo le sue stesse parole, era una persona apolitica e atea.

Non c’erano “Informazioni” nelle vecchie enciclopedie. Gli "Inflants polacchi" furono subito seguiti lì dagli "Infralapsarian". E quando un articolo del genere apparve in una pubblicazione pubblica, la Piccola Enciclopedia Sovietica del 1929, il significato del termine informazione era molto lontano dall’essere moderno.

Informazione (lat.), consapevolezza. Informativo - informativo. Nei periodici, il dipartimento di informazione è quella parte di un giornale, rivista, ecc., che contiene telegrammi, corrispondenza, interviste, nonché informazioni fornite dai giornalisti."

Numerosi informatori in quegli anni, fornendo alle organizzazioni curiose dati sulla vita di colleghi e vicini, non furono pubblicati in pubblicazioni pubbliche per ovvi motivi. Ma è interessante notare che, sebbene nella tecnologia della comunicazione, specialmente nei canali stazionari, la chiave Morse fosse ormai stata sostituita da dispositivi start-stop, le attività degli informatori sopra descritti venivano comunemente descritte laconicamente: "bussare". Solo nel secolo successivo Computerra dovette raccontare ai suoi lettori che un picchio nella foresta funziona come un modem vivente, e il saggio inconscio collettivo aveva già assegnato a quei numerosi e modesti operatori dell'informazione il nome lapidario di “picchio”!

Gli antichi romani usavano la parola informatio nel senso di interpretazione, presentazione, ma il concetto moderno, eccezionalmente capiente, di informazione è il frutto dello sviluppo sia della scienza che della tecnologia. Il latino in-formo (dare forma, comporre, immaginare) fu utilizzato da Cicerone e si collega alle idee originali di Platone attraverso il greco, molto polisemantico, eidos. Ma il termine vero e proprio “informazione” è apparso relativamente tardi, anche dopo i primi computer elettronici, caldaie atomiche e bombe.

È stato introdotto da Claude Shannon nel suo lavoro del 1948 "A Mathematical Theory of Communication". E nasce dalla dura esigenza pratica di trasmettere messaggi attraverso canali pieni di rumore. Proprio come generazioni prima, la necessità di tenere conto delle caratteristiche dinamiche delle linee telegrafiche diede origine ai lavori ingegnosi di Heaviside.

Il concetto di informazione è introdotto in modo puramente matematico. Un concetto abbastanza popolare, ma anche accurato è dato nell'antica opera, molto famosa in URSS, dei fratelli Yaglomov. L'informazione viene presentata come opposizione, opposizione all'entropia. Rumore, caos, incertezza, “non sapere”.

E l’entropia fu introdotta nella teoria delle comunicazioni ancor prima, nel 1928, dal lavoro pionieristico dell’ingegnere elettronico americano Ralph Vinton Lyon Hartley. Notiamo, a proposito, che, parlando di problemi di comunicazione puramente pratici, Hartley ha menzionato i “fattori psicologici” che influenzano la misura dell’incertezza. In generale, l'apparato matematico utilizzato da lui (e più tardi da Shannon) era la teoria della probabilità. Una disciplina nata dall'amore per il gioco d'azzardo degli aristocratici francesi.

E il concetto di entropia a quei tempi, anche in fisica, aveva una connotazione emotiva – ovviamente! - dopo tutto, la primissima conseguenza di questa prima formulazione fu la comprensione dell'impossibilità di creare una macchina a moto perpetuo del secondo tipo. Un dispositivo in grado di produrre lavoro utilizzando solo il calore dissipato attorno ad esso.

La penetrazione di questi concetti nella comunità scientifica è stata estremamente drammatica. Innanzitutto la “morte termica” dell’Universo. Per immaginare come questo concetto fu percepito negli anni della sua formulazione, bisogna rivolgersi all'atmosfera intellettuale del XIX secolo. Sebbene sia iniziato con un tritacarne perpetrato dalla macchina militare-burocratica di Napoleone, questo secolo si è rivelato un periodo di trionfo del progresso.

Ed ecco che lo splendore del progresso, la via luminosa verso la complessità e la felicità, è stato invaso dall’idea della non diminuzione del caos, della “morte termica” dell’Universo predetta dalla SCIENZA. No, non riguardo alla fine delle religioni, seguita da una nuova vita tra nuovi cieli e su una nuova terra. Sulla distruzione universale scientifica, tangibile e senza speranza, anche se molto distante, ma assolutamente inevitabile.

E non sono stati solo gli scienziati a capirlo. Passiamo a "Il gabbiano" di Cechov.

Ecco il monologo di Nina Zarechnaya in un episodio con un inserto teatrale di uno scrittore deliberatamente cattivo: “Persone, leoni, aquile e pernici, cervi cornuti, oche, ragni, pesci silenziosi che vivevano nell'acqua, stelle marine e quelli che non si potevano vedere con l'occhio - in una parola, tutte le vite, tutte le vite, dopo aver completato il loro triste circolo, sono svanite...<...>Freddo, freddo, freddo. Vuoto, vuoto, vuoto. Spaventoso, spaventoso, spaventoso...."

Ricordiamo il suicidio del figlio di K. E. Tsiolkovsky, causato, secondo i biografi, dall'orrore dell'imminente "morte termica". Infatti, per i sostenitori del materialismo, molto diffuso negli ambienti intellettuali dell'epoca, la cessazione del movimento molecolare dovuta al raggiungimento della massima entropia significava la distruzione UNIVERSALE. La vita è diventata priva di significato per una persona incline a generalizzazioni ed estrapolazioni.

L'introduzione da parte di Ralph Hartley del concetto di entropia nella trasmissione dei messaggi e, secondo Claude Shannon, la sua antitesi, dell'informazione stessa, con tutta la loro apparente tecnicità, furono eventi di colossale significato ideologico. Per la prima volta le scienze positive, insieme all’ingegneria, allora frontiera dell’alta tecnologia, arrivarono dove prima regnavano filosofia, metafisica e teologia.

La reazione più divertente alla teoria dell’informazione e alla cibernetica si ebbe nell’URSS stalinista. Sembrerebbe: il trionfo del materialismo. Ma non fu così... Nel paese bolscevico non c'era posto per la teoria dell'informazione (così come per la teoria della relatività, la meccanica quantistica e l'Universo non stazionario) nell'insieme dei fondamenti ideologici. Ebbene, i classici del marxismo non hanno avuto il tempo di parlarne. E non potevano ancora... E la giovanissima cibernetica fu dichiarata una ragazza corrotta dell'imperialismo. I tentativi di riabilitarla all'inizio degli anni sessanta non risolsero nulla. Tuttavia, questo è un argomento per un’altra discussione.

E il concetto di informazione introdotto da Shannon, dopo aver trasformato il mondo che ci circonda, diventando la base di Second Nature, sta tornando sempre più alla fisica teorica. Il fisico israeliano, ideatore della teoria termodinamica dei buchi neri Jacob David Bekenstein (Bekenstein, nato nel 1947) ha suggerito5 che questa sia una tendenza generale nelle moderne scienze naturali.

Nel fenomeno dell'“entanglement quantistico” delle particelle, l'informazione appare in una delle sue nuove vesti, e forse con nuove caratteristiche del suo carattere. Ma la cosa principale è che più impariamo a conoscere ciò che ci circonda, più chiaramente vediamo le connessioni profonde delle informazioni con il mondo oggettivo.

Dalla rivista "Computerra"
Informazioni per sempre

Ralph Hartley

Ralph. Hartley nacque a Spruce, Nevada, il 30 novembre 1888. Si laureò con un A.B. presso l'Università dello Utah nel 1909. Come Rhodes Scholar, ha conseguito un B.A. nel 1912 e un B.Sc. nel 1913 dall'Università di Oxford. Dopo il ritorno dall'Inghilterra, Hartley si unì al laboratorio di ricerca della Western Electric Company e prese parte alla creazione di un ricevitore radio per test transatlantici. Durante la prima guerra mondiale, Hartley risolse i problemi che avevano ostacolato lo sviluppo dei cercatori direzionali di tipo sonoro.

Dopo la guerra, lo scienziato affrontò il problema della trasmissione delle informazioni (in particolare del suono). Durante questo periodo formulò la legge "secondo cui la quantità totale di informazioni che possono essere trasmesse è proporzionale alla gamma di frequenze trasmesse e al tempo di trasmissione". Hartley è stato un pioniere nel campo della teoria dell'informazione. Introdusse il concetto di "informazione" come variabile casuale e fu il primo a tentare di definire una "misura dell'informazione" (1928: "Transmission of Information", in Bell System Technology. Journal, vol. 7, pp. 535- 563). Pubblicando sulla stessa rivista di Nyquist, e tuttavia senza citare Nyquist (o chiunque altro, del resto), Hartley sviluppò il concetto di informazione basato su "considerazioni fisiche in contrasto con considerazioni psicologiche" da utilizzare nello studio delle comunicazioni elettroniche. In effetti, Hartley definisce di conseguenza questo concetto di base. Si riferisce invece alla "accuratezza... delle informazioni" e alla "quantità delle informazioni".

L'informazione esiste nella trasmissione di simboli, con simboli che hanno "significati specifici per il messaggio del partito". Quando qualcuno riceve un'informazione, ogni simbolo ricevuto consente al destinatario di "eliminare possibilità" eliminando altri possibili simboli e i significati ad essi associati. "

L'accuratezza dell'informazione dipende da quali altre stringhe di simboli possono essere state selezionate"; la misura di queste altre stringhe fornisce un'indicazione della quantità di informazione trasmessa. Nyquist suggerisce quindi di prendere "come misura pratica dell'informazione il logaritmo della numero di possibili stringhe di simboli." Pertanto, se avessimo 4 simboli diversi che si verificano con la stessa frequenza, rappresenterebbero 2 bit Hartley ha ricevuto premi per l'eccellenza nella scienza, questo scienziato era membro dell'American Association for the Advancement of Science. Hartley detiene più di 70 brevetti (invenzioni). Ralph W. L. Hartley morì il 1 maggio 1970, all'età di 81 anni.

Claude Elwood Shannon


Claude Ellwood Shannon (1916-2001) - Ingegnere e matematico americano. L'uomo che è chiamato il padre delle moderne teorie dell'informazione e della comunicazione.

In un giorno d’autunno del 1989, un corrispondente della rivista Scientific American entrò in una vecchia casa affacciata su un lago a nord di Boston. Ma il proprietario che lo ha incontrato, un vecchio snello di 73 anni con una rigogliosa criniera grigia e un sorriso malizioso, non voleva affatto ricordare "gli affari dei tempi passati" e discutere le sue scoperte scientifiche di 30-50 anni fa. Forse l'ospite preferirebbe guardare i suoi giocattoli?

Senza aspettare risposta e senza ascoltare gli ammonimenti della moglie Betty, il proprietario condusse lo stupito giornalista nella stanza accanto, dove con l'orgoglio di un ragazzino di 10 anni fece sfoggio dei suoi tesori: sette macchine per gli scacchi, una palo da circo con molla e motore a benzina, un coltello pieghevole con cento lame, un monociclo a due posti, un manichino da giocoliere, nonché un computer che calcola con il sistema dei numeri romani. E non importa che molte delle creazioni di questo proprietario siano rotte da tempo e piuttosto polverose: lui è felice.

Chi è questo vecchio? Fu davvero lui che, quando era ancora un giovane ingegnere ai Bell Laboratories, scrisse la "Magna Carta" dell'era dell'informazione - "La teoria matematica delle comunicazioni" nel 1948? La sua opera fu definita “la più grande opera negli annali del pensiero tecnico”? La sua intuizione pionieristica fu paragonata al genio di Einstein? Sì, è tutto su di lui. E negli stessi anni '40, progettò un disco volante su un motore a razzo e cavalcò, facendo il giocoliere, su un monociclo lungo i corridoi dei Bell Labs. Si tratta di Claude Ellwood Shannon, il padre della cibernetica e della teoria dell'informazione, che dichiarava con orgoglio: "Ho sempre seguito i miei interessi senza pensare a quanto mi sarebbero costati o al loro valore per il mondo. Ho sprecato molto tempo completamente cose inutili”.

Claude Shannon è nato nel 1916 ed è cresciuto a Gaylord, nel Michigan. Fin dalla sua infanzia, Claude conobbe sia i dettagli delle strutture tecniche che la generalità dei principi matematici. Armeggiava costantemente con i ricevitori e gli apparecchi radio che suo padre, un assistente giudice, gli aveva portato, e risolveva problemi matematici ed enigmi che sua sorella maggiore Katherine, che in seguito divenne professoressa di matematica, gli fornì. Claude si innamorò di questi due mondi, così diversi tra loro: la tecnologia e la matematica.

Come studente presso l'Università del Michigan, dove si laureò nel 1936, Claude si specializzò sia in matematica che in ingegneria elettrica. Questa dualità di interessi e di istruzione determinò il primo grande successo che Claude Shannon ottenne durante i suoi anni di laurea presso il Massachusetts Institute of Technology. Nella sua tesi, difesa nel 1940, dimostrò che il funzionamento di interruttori e relè nei circuiti elettrici può essere rappresentato utilizzando l'algebra, inventata a metà del XIX secolo dal matematico inglese George Boole. "È semplicemente successo che nessun altro conosceva entrambe le aree allo stesso tempo!" - Shannon spiegò con modestia il motivo della sua scoperta.

Al giorno d'oggi non è più necessario spiegare ai lettori di una pubblicazione informatica cosa significa l'algebra booleana per i circuiti moderni. Nel 1941, il venticinquenne Claude Shannon andò a lavorare ai Bell Laboratories. Durante la guerra fu coinvolto nello sviluppo di sistemi crittografici, che in seguito lo aiutarono a scoprire metodi di codifica per la correzione degli errori. E nel tempo libero iniziò a sviluppare idee che in seguito sfociarono nella teoria dell'informazione. L'obiettivo originale di Shannon era migliorare la trasmissione delle informazioni su un canale telegrafico o telefonico affetto da rumore elettrico. Arrivò rapidamente alla conclusione che la soluzione migliore al problema era raggruppare le informazioni in modo più efficiente.

Ma cosa sono le informazioni? Come misurarne la quantità? Shannon ha dovuto rispondere a queste domande ancor prima di iniziare a ricercare la capacità dei canali di comunicazione. Nei suoi lavori del 1948-49 definì la quantità di informazione attraverso l'entropia, una quantità conosciuta in termodinamica e fisica statistica come misura del disordine di un sistema, e prese come unità di informazione ciò che in seguito venne soprannominato "bit". , cioè la scelta di una tra due opzioni ugualmente probabili. Shannon in seguito amava dire che gli era stato consigliato di usare l'entropia dal famoso matematico John von Neumann, che aveva motivato il suo consiglio con il fatto che pochi matematici e ingegneri conoscevano l'entropia, e questo avrebbe fornito a Shannon un grande vantaggio nelle inevitabili controversie. Che si tratti di uno scherzo o no, quanto è difficile per noi oggi immaginare che solo mezzo secolo fa il concetto di “quantità di informazioni” necessitasse ancora di una definizione rigorosa e che questa definizione potesse suscitare qualche controversia.

Basandosi sulle solide basi della sua definizione di quantità di informazione, Claude Shannon ha dimostrato un teorema sorprendente sulla capacità dei canali di comunicazione rumorosi. Questo teorema venne pubblicato integralmente nei suoi lavori del 1957-61 e oggi porta il suo nome. Qual è l'essenza del teorema di Shannon? Qualsiasi canale di comunicazione rumoroso è caratterizzato dalla sua massima velocità di trasferimento delle informazioni, chiamata limite di Shannon. A velocità di trasmissione superiori a questo limite, gli errori nelle informazioni trasmesse sono inevitabili. Ma dal di sotto di questo limite ci si può avvicinare quanto si desidera, fornendo con un'appropriata codifica delle informazioni una probabilità di errore arbitrariamente piccola per qualsiasi canale rumoroso.

Queste idee di Shannon si rivelarono troppo visionarie e non riuscirono a trovare applicazione negli anni dell'elettronica a tubi lenti. Ma ai nostri tempi, i microcircuiti ad alta velocità funzionano ovunque, dove le informazioni vengono archiviate, elaborate e trasmesse: in un computer e in un disco laser, in un fax e in una stazione interplanetaria. Non notiamo il teorema di Shannon, così come non notiamo l'aria.

Oltre alla teoria dell'informazione, l'irrefrenabile Shannon ha lavorato in molti settori. Fu uno dei primi a suggerire che le macchine potessero giocare e apprendere da sole. Nel 1950 realizzò un topo meccanico, Teseo, controllato a distanza da un complesso circuito elettronico. Questo topo ha imparato a trovare una via d'uscita dal labirinto. In onore della sua invenzione, l'IEEE istituì un concorso internazionale di micromouse, al quale partecipano ancora migliaia di studenti di ingegneria. Negli stessi anni '50, Shannon creò una macchina che “leggeva nel pensiero” quando giocava a “moneta”: una persona pensava a “testa” o “croce”, e la macchina indovinava con una probabilità superiore al 50%, perché una persona non può evitarlo - o motivi utilizzabili dalla macchina.

Shannon lasciò i Bell Labs nel 1956 e l'anno successivo divenne professore al Massachusetts Institute of Technology, dove si ritirò nel 1978. Tra i suoi studenti c'erano, in particolare, Marvin Minsky e altri famosi scienziati che lavoravano nel campo dell'intelligenza artificiale.

Le opere di Shannon, trattate con riverenza dagli scienziati, sono altrettanto interessanti per gli specialisti che risolvono problemi puramente applicativi. Shannon ha inoltre gettato le basi per la moderna codifica di correzione degli errori, che oggi è essenziale per ogni disco rigido o sistema di streaming video e forse per molti prodotti che devono ancora vedere la luce.

Al MIT e in pensione, era completamente affascinato dalla sua passione di sempre per la giocoleria. Shannon costruì diverse macchine da giocoleria e creò persino una teoria generale della giocoleria, che, tuttavia, non lo aiutò a battere il suo record personale: destreggiarsi con quattro palline. Si cimentò anche con la poesia, sviluppò anche diversi modelli di borsa e li testò (secondo lui con successo) sulle proprie azioni.

Ma dall’inizio degli anni ’60 Shannon non ha fatto praticamente più nulla nel campo della teoria dell’informazione. Sembrava che si fosse stancato della teoria che aveva creato dopo soli 20 anni. Questo fenomeno non è raro nel mondo della scienza, e in questo caso sullo scienziato si dice una parola: esaurito. Come una lampadina o cosa? Mi sembra che sarebbe più accurato confrontare gli scienziati con le stelle. Le stelle più potenti non brillano a lungo, circa cento milioni di anni, e terminano la loro vita creativa con un'esplosione di supernova, durante la quale avviene la nucleosintesi: l'intera tavola periodica nasce da idrogeno ed elio. Tu ed io siamo costituiti dalle ceneri di queste stelle, e anche la nostra civiltà è costituita dai prodotti della rapida combustione delle menti più potenti. Esistono stelle del secondo tipo: bruciano in modo uniforme e per lungo tempo, e per miliardi di anni forniscono luce e calore ai pianeti abitati (almeno uno). Ricercatori di questo tipo sono molto necessari anche alla scienza e all’umanità: forniscono alla civiltà l’energia dello sviluppo. E le stelle di terza classe - nane rosse e brune - brillano e si riscaldano un po', appena sottovoce. Ci sono molti di questi scienziati, ma parlarne in un articolo su Shannon è semplicemente indecente.

Nel 1985, Claude Shannon e sua moglie Betty parteciparono inaspettatamente al Simposio internazionale sulla teoria dell'informazione nella città inglese di Brighton. Shannon non si presentò alle conferenze per quasi una generazione e all'inizio nessuno lo riconobbe. Poi i partecipanti al simposio hanno cominciato a sussurrare: quel modesto signore dai capelli grigi laggiù è Claude Elwood Shannon, lo stesso! Al banchetto, Shannon ha detto qualche parola, ha fatto un po' di giocoleria con tre (ahimè, solo tre) palline, e poi ha firmato centinaia di autografi per gli sbalorditi ingegneri e scienziati che si erano messi in fila in una lunga fila. Quelli in fila hanno detto di aver provato le stesse sensazioni che proverebbero i fisici se lo stesso Sir Isaac Newton fosse apparso alla loro conferenza.

Claude Shannon morì nel 2001 in una casa di cura del Massachusetts a causa del morbo di Alzheimer all'età di 84 anni.

Basato sui materiali di un articolo di Sergei Sery sul quotidiano Computer News, n. 21, 1998.
Indirizzo Web:

Campo scientifico: Posto di lavoro: Alma madre: Conosciuto come: Premi e riconoscimenti


  • Premio intitolato a A. Nobel AIEE (1940);
  • Premio in memoria di M. Libman (Inglese) russo IRE (1949);
  • Medaglia d'Onore IEEE (1966);
  • Medaglia Nazionale della Scienza (1966);
  • Premio Harvey (1972);
  • Premio Kyoto (1985).

Biografia

Nel 1985, Claude Shannon e sua moglie Betty partecipano al Simposio internazionale sulla teoria dell'informazione a Brighton. Shannon non ha partecipato a conferenze internazionali per molto tempo e all'inizio non lo hanno nemmeno riconosciuto. Al banchetto, Claude Shannon ha tenuto un breve discorso, ha fatto il giocoliere con solo tre palle, e poi ha rilasciato centinaia e centinaia di autografi agli scienziati e ingegneri stupiti che stavano in una lunga fila, provando sentimenti di riverenza nei confronti del grande scienziato, paragonandolo a Sir Isacco Newton.

È stato lo sviluppatore del primo giocattolo radiocomandato industriale, prodotto negli anni '50 in Giappone (foto). Ha sviluppato anche un dispositivo in grado di piegare un cubo di Rubik (foto), un mini computer per il gioco da tavolo Hex, che sconfigge sempre l'avversario (foto), un mouse meccanico in grado di trovare una via d'uscita da un labirinto (foto). Ha anche realizzato l'idea della macchina per fumetti "Ultimate Machine" (foto).

Teoria della comunicazione nei sistemi segreti

L'opera di Shannon "The Theory of Communication in Secret Systems" (1945), classificata come "segreta", che fu declassificata e pubblicata solo nel 1949, servì come inizio di una vasta ricerca sulla teoria della codifica e della trasmissione delle informazioni e, in opinione generale, ha dato alla crittografia lo status di scienza. Fu Claude Shannon il primo a iniziare a studiare la crittografia utilizzando un approccio scientifico. In questo articolo Shannon definisce i concetti fondamentali della teoria della crittografia, senza i quali la crittografia non è più concepibile. L'importante merito di Shannon è la ricerca di sistemi assolutamente sicuri e la prova della loro esistenza, nonché l'esistenza di codici crittograficamente forti e le condizioni richieste per ciò. Shannon formulò anche i requisiti di base per i codici forti. Ha introdotto i concetti ormai familiari di dispersione e miscelazione, nonché metodi per creare sistemi di crittografia crittograficamente potenti basati su operazioni semplici. Questo articolo è il punto di partenza per lo studio della scienza della crittografia.

Articolo "Teoria matematica della comunicazione"

  • Il teorema di Nyquist-Shannon (nella letteratura in lingua russa - il teorema di Kotelnikov) riguarda la ricostruzione inequivocabile di un segnale dai suoi campioni discreti.
  • (o teorema della crittografia silenziosa) stabilisce un limite per la massima compressione dei dati e un valore numerico per l'entropia di Shannon.
  • Teorema di Shannon-Hartley

Guarda anche

  • Formula di interpolazione di Whittaker-Shannon

Appunti

Letteratura

  • Shannon C.E. Una teoria matematica di comunicazione // Giornale tecnico del sistema Bell. - 1948. - T. 27. - P. 379-423, 623-656.
  • Shannon C.E. Comunicazione in presenza di rumore // Proc. Istituto di ingegneri radiofonici. -Gennaio 1949. - T. 37. - N. 1. - P. 10-21.
  • Shannon K. Si occupa di teoria dell'informazione e cibernetica. - M.: Casa editrice di letteratura straniera, 1963. - 830 p.

Collegamenti

  • Bibliografia (inglese)

Categorie:

  • Personalità in ordine alfabetico
  • Scienziati in ordine alfabetico
  • Nato il 30 aprile
  • Nato nel 1916
  • Nato nel Michigan
  • Morì il 24 febbraio
  • Morì nel 2001
  • Morti nel Massachusetts
  • matematici statunitensi
  • Teoria dell'informazione
  • Crittografi
  • Cibernetica
  • Pionieri della tecnologia informatica
  • Ricercatori di intelligenza artificiale
  • Scienziati nel campo della scienza dei sistemi
  • Ex studenti del MIT
  • Alumni dell'Università del Michigan
  • facoltà del MIT
  • Membri e membri corrispondenti della National Academy of Sciences degli Stati Uniti
  • Fellows stranieri della Royal Society di Londra
  • Matematici del 20° secolo
  • Vincitori dell'Harvey Award
  • Destinatari della medaglia nazionale della scienza degli Stati Uniti
  • Destinatari della medaglia d'onore dell'IEEE
  • Persone: scacchi al computer
  • Ingegneri elettrici statunitensi

Fondazione Wikimedia. 2010.

Condividi con gli amici o salva per te stesso:

Caricamento...