Narodziny |
30 kwietnia 1916 r. Petoskey |
---|---|
Śmierć |
24 lutego 2001(w wieku 84 lat) Medford |
Imię w języku ojczystym | Claude |
Narodowość | amerykański |
Dom | Gaylord |
Trening |
Uniwersytet Michigan (od1932) Massachusetts Institute of Technology (od1936) |
Zajęcia | Matematyk , kryptograf , informatyk , wynalazca , rowerzysta , profesor uniwersytecki , inżynier , genetyk |
Małżonka | Betty Shannon ( w ) (od1949) |
Pracował dla | Massachusetts Institute of Technology (od1956) , Laboratoria Bell (1941-1972) , Instytut Studiów Zaawansowanych (1940-1941) |
---|---|
Obszary | teoria prawdopodobieństwa , elektronika , teoria informacji , cybernetyka , kryptografia |
Członkiem |
Amerykańska Akademia Nauk (1956) Amerykańska Akademia Sztuki i Nauki (1957) Akademia Leopoldina (1970) Królewska Holenderska Akademia Sztuki i Nauki (1975) Amerykańskie Towarzystwo Filozoficzne (1983) Towarzystwo Królewskie (1991) |
Sport | Sport kolarski |
Reżyserzy prac dyplomowych | Frank Lauren Hitchcock ( w ) , Vannevar Bush |
Wpływem | Vannevar Bush , Ralph Hartley |
Nagrody | |
Archiwum prowadzone przez | Biblioteki MIT ( w ) |
Matematyczna teoria komunikacji , Symboliczna analiza obwodów przekaźnikowych i przełączających ( d ) |
Claude Elwood Shannon (30 kwietnia 1916 r.w Petoskey , Michigan -24 lutego 2001w Medford , Massachusetts ) jest inżynierem w elektrotechnice i matematycznej Amerykanina . Jest jednym z ojców, jeśli nie ojcem założycielem teorii informacji .
Rodzicami Claude'a Shannona byli Claude Elwood Shannon i Mabel Catherine Wolf.
Studiował elektrotechnikę i matematykę na Uniwersytecie Michigan, który ukończył w 1936 roku. W szczególności używał algebry Boole'a do uzyskania tytułu magistra, który został obroniony w 1938 roku w Massachusetts Institute of Technology (MIT). Wyjaśnia, jak budować maszyny przekaźnikowe przy użyciu algebry Boole'a do opisania stanu przekaźników (1: zamknięte, 0: otwarte) . Uzyskał doktorat z matematyki na MIT w 1940 roku.
Shannon pracował przez 20 lat w MIT, od 1958 do 1978 roku . Wraz z jego akademickich zajęć , pracował również w Bell Laboratories od 1941 do 1972 roku .
W 1949 poślubił Mary Elizabeth Moore, z którą miał troje dzieci.
Cierpi na chorobę Alzheimera w ostatnich latach jego życia, Claude Shannon zmarł w wieku 84 na24 lutego 2001w Medford w Massachusetts .
Claude Shannon jest znany nie tylko ze swojej pracy w telekomunikacji , ale także z zakresu i oryginalności swoich hobby , takich jak żonglerka , jazda na monocyklu i wynalezienie zwariowanych maszyn : mechanicznej myszy , która potrafi odnaleźć się w labirynt, robot żonglujący, szachista (król przeciwko królowi) itp.
Jeden z tych „gadżetów” jest jednak bardzo interesujący koncepcyjnie, jak pokazują Philippe Boulanger i Alain Cohen w Le Trésor des paradoxes ( Éditions Belin , 2007): „Claude Shannon chciał opracować„ bezużyteczną maszynę ”, bez ostateczności: my włącza się, naciskając, jak w przypadku każdego urządzenia elektromechanicznego , przycisk „włącz”; ale sprawy przybierają zaskakujący obrót, ponieważ to włączenie uruchamia mechanizm, który natychmiast zatrzymuje gadżet, ustawiając przełącznik w pozycji „off”.
Podczas II wojny światowej , Shannon pracował dla służb specjalnych w armii amerykańskiej w kryptografii , odpowiedzialny za zlokalizowanie automatycznie w Code wroga oznaczający ukryte elementy w środku ingerencję . Jego prace są wystawione w tajnym raporcie (odtajnionym tylko w latach 80.), który dał początek powojennemu artykułowi A Mathematical Theory of Communication (1948), który został przedrukowany w 1949 jako książka wydana przez uniwersytet z Illinois z komentarzami od Warrena Weavera , koordynatora (Mattelart & Mattelart, 2004) w Secret Service. Praca ta koncentruje się wokół problemu transmisji sygnału .
Aby opisać komunikację maszyna-maszyna, zarówno artykuł z 1948 r., jak i książka z 1949 r. zaczynają się od „schematu”, zwanego diagramem Shannona lub modelem Shannona i Weavera . Do diagramu modele komunikacji między maszynami:
Ten diagram jest „cywilnym” tłumaczeniem wstępnego diagramu, używanego w kontekście wojskowym:
źródło → koder → sygnał → dekoder → odbiorca, w kontekście zakłóceń.Zaprojektowany w celu opisania komunikacji między maszynami, diagram ten niedoskonale modeluje komunikację między ludźmi . Jednak jego sukces jest przytłaczający i w dużej mierze brał udział w tworzeniu pola dyscyplinarnego: CIS. Shannon był zaskoczony tym zjawiskiem i odciął się od niego . Jednym z wyjaśnień tego sukcesu jest fakt, że doskonale komponuje się on z behawiorystycznym podejściem do mediów. Ponadto ten tak zwany schemat kanoniczny nadaje spójność i sprawia wrażenie naukowości.
W artykule, podobnie jak w swojej książce, Claude Shannon popularyzuje użycie słowa bit jako elementarnej miary informacji cyfrowej . Jednak John Tukey jako pierwszy użył tego terminu. Dokładniej, bit oznacza liczbę binarną , umożliwiającą zakodowanie pewnej ilości informacji. Tak więc co najmniej jeden bit ( lub 1 Shannon ) jest do zakodowania dwóch stanów (na przykład „stos” i „twarz” lub bardziej ogólnie 0 i 1), a dwa bity umożliwiają zakodowanie czterech stanów ( 00, 01, 10, 11). 26 liter alfabetu wymaga co najmniej 5 bitów, ponieważ:
Mówiąc bardziej ogólnie, jeśli P jest liczbą możliwych stanów, minimalna liczba bitów n potrzebnych do ich zakodowania spełnia:
(to znaczy brak jest sufit z binarnym logarytm z P : )
W idealnym przypadku, gdy wykorzystywane są wszystkie dostępne informacje .
W dziedzinie telekomunikacji relacja Shannona umożliwia obliczenie wartościowości (lub maksymalnej liczby stanów) w zaburzonym medium:
Niech S będzie mocą sygnału, N mocą szumu:
Mamy wtedy maksymalną przepustowość kanału komunikacyjnego o przepustowości H:
Wynik ten jest niezależny od częstotliwości próbkowania i liczby poziomów w próbce (wartościowości).
Istotny wkład pracy Shannona dotyczy pojęcia entropii . Jeśli weźmiemy pod uwagę N zdarzeń o prawdopodobieństwie p 1 , p 2 … p N , niezależnych od siebie, to ich entropia Shannona jest zdefiniowana jako:
Entropia =
To także ma:
Odkrycie koncepcji otworzyło tym samym drogę do tak zwanych metod maksymalnej entropii (patrz prawdopodobieństwo ), a więc do skanera medycznego, automatycznego rozpoznawania znaków i uczenia maszynowego .
Jego nazwa związana jest z kilkoma twierdzeniami, m.in. twierdzenie Nyquista-Shannona o próbkowaniu (zwane także kryterium Shannona ), pierwsze twierdzenie Shannona o teoretycznej granicy kompresji , drugie twierdzenie Shannona o przepustowości kanału transmisyjnego .
W 1981 roku Claude Shannon zaczął pisać artykuł zatytułowany „ Naukowe aspekty żonglerki” o sztuce żonglowania . Ten artykuł miał zostać opublikowany w Scientific American , ale ostatecznie tak się nie stało. Niemniej jednak ten zarys służył jako podstawa do sformalizowania ruchów żonglerskich przez sitewap .
W grze w szachy oszacował liczbę różnych możliwych partii o znaczeniu szachowym (liczba do odróżnienia od liczby, znacznie większej, możliwych partii dozwolonych przez reguły gry). Ta liczba szacowana jest na 10 120 i nazywana jest liczbą Shannona .
Claude Shannon nagroda przyznawana jest przez Stowarzyszenie na rzecz teorii informacji o IEEE od 1972 roku na cześć znaczący wkład w tej dziedzinie.
W 2016 roku mija stulecie jego urodzin. Mathematical Society Francji zapowiada konferencję Josselin Garnier w Bibliotece Narodowej Francji : Claude Shannon i nadejście ery cyfrowej (13 kwietnia 2016) a Instytut Henri-Poincaré organizuje wraz z Narodowym Konserwatorium Sztuki i Rzemiosła wystawę czasową: Claude Shannon: magik kodów .
W swojej powieści Teoria informacji (2012) Aurélien Bellanger oddaje hołd pracy Shannon. Claude Shannon jest centralną postacią w książce Jamesa Gleicka „ Informacje: Historia – Teoria – Powódź” ( Cassini , 2015, dla przekładu francuskiego)