Muzyka wspomagana komputerowo

Muzyka komputerowa ( MAO ) obejmuje wszystkie zastosowania komputera jako narzędzia związanego z łańcuchem tworzenia muzyki, od komponowania muzyki po rozpowszechnianie utworów, poprzez szkolenie nauczycieli w zakresie teorii i praktyki na instrumentach .

Muzyka komputerowa ukazał się szerszej publiczności w 1970 roku , kiedy pierwsze pomysły na syntezatorach związanych z komputerem, Synclavier i Fairlight , urodzili. Stał się bardziej demokratyczny w latach 80 - tych dzięki uogólnieniu mikrokomputerów (reprezentowanego przez Commodore 64 , Apple II, a przede wszystkim Atari ST , pierwszy komputer osobisty, z Yamaha CX5M , zdolnym do integracji interfejsu MIDI ). Obecnie wszystkie komputery są dostarczane z kartą dźwiękową , a zatem potencjalnie umożliwiają komponowanie, przetwarzanie i modyfikowanie dźwięku. Z drugiej strony pojawiły się zaawansowane interfejsy ( USB , Firewire , MLAN  (en) …), które pozwalają na komunikację ze wszystkimi typami instrumentów czy urządzeń audio i sterowanie nimi. Stały wzrost mocy komputerów sprzyja pojawianiu się oprogramowania oferującego coraz więcej funkcjonalności, a jednocześnie pojawia się oprogramowanie bezpłatne lub open source, które odpowiada na najczęstsze potrzeby.

Internet uczestniczy również w rozwoju muzyki komputerowej, np. Poprzez serwisy oferujące szkolenia muzyczne na odległość, udostępniające próbki dźwiękowe lub rozpowszechniające w formie elektronicznej partytury muzyczne, które dostały się do domeny publicznej , a także dzięki wszystkim fora muzyczne.

Pochodzenie

Badania nad kompozycją wspomaganą komputerowo sięgają 1955 roku , aw 1956 roku zaowocowały słynnym kwartetem smyczkowym „Illiac Suite”, opracowanym przez Lejarena A. Hillera i Leonarda M. Isaacsona z University of Illinois .

Podstawowe postulaty pracy Hillera i Isaacsona powstały w następstwie teorii cybernetycznych , które pokładały duże zaufanie w zdolnościach obliczeniowych ( sztuczna inteligencja ). Autorzy ci opracowali matematyczny model analizy - konstrukcję muzyczną, która poprzez adaptację dwóch traktatów kontrapunktowych (w tym przypadku traktatu Johanna Josepha Fuxa, Gradus ad Parnassum i Palestriny z 1725 r.) Posłużyła jako podstawa do rekonstrukcji. Hiller był chemiczny naukowiec , dla niego ROZKŁAD powinno pozwolić rekompozycję. Sformalizowanie pewnych reguł pisania i wprowadzenie klasycznych schematów kompozycyjnych do komputera wystarczyłoby, aby przełożyć emocjonalne lub pełne pasji strony muzyki na zestawy reguł i zakazów. Aby zachować pewien stopień artystycznej ekspresji, program symulował samoorganizujący się aspekt, wprowadzając pewne aspekty teorii formalizacji przypadku ( łańcuchy Markowa , sformułowanie pewnych procesów stochastycznych i losowa metoda losowania liczb. Znana jako „ Monte-Carlo ”), również bardzo popularne. To sprawiło, że Hiller powiedział, że „muzyka jest kompromisem między monotonią a chaosem” , ale nigdy nie zadając sobie pytania, kto poszedł na ten kompromis.

We Francji Pierre Barbaud kontynuował te eksperymenty i wyprodukował liczne prace, dzięki czasowi obliczeniowemu łaskawie przydzielonemu przez Compagnie des Machines Bull , czasami we współpracy z Janine Charbonnier i Rogerem Blanchardem . Utwory zostały najpierw obliczone komputerowo, a następnie zagrane na instrumentach m.in .:

Od 1975 roku były komponowane i produkowane komputerowo w postaci taśmy magnetycznej, którą można było usłyszeć bezpośrednio podczas koncertu ( Saturnia Tellus , na zamówienie ORTF w 1979 roku). Ten globalny projekt automatycznej produkcji został opracowany przez Pierre'a Barbauda w 1960 roku w artykule „  Algorithmic music  ”, Esprit ,styczeń 1960, s.  92 i następne. Kompozytor zebrał te doświadczenia w pracy Initiation à la composition Automatique ( Dunod , Paryż, 1965). Inni kompozytorzy, jak Michel Philippot , pracowali nad automatyczną kompozycją.

Pojawienie się, a następnie szerokie upowszechnienie się nowych technologii informacyjnych , w szczególności umożliwiających łatwą manipulację obrazem i dźwiękiem, przyspieszyło rozwój muzyki komputerowej i dało początek pod koniec lat 90. kluczowemu narzędziu w kreacji fonograficznej, zwłaszcza od czasu uogólnienia dźwięku cyfrowego ( płyta kompaktowa zastępuje płytę winylową ).

Pokrycie potrzeb muzycznych

Oprogramowanie przeznaczone do czynności muzycznych odpowiada bardzo szerokiemu spektrum zastosowań i obejmuje praktycznie cały łańcuch tworzenia muzyki. Wśród dziedzin, w których działa IT, znajdujemy:

Najpopularniejsze oprogramowanie integruje funkcje obejmujące zapis muzyczny, nagrywanie dźwięku (w tym jego modyfikację) i odtwarzanie dźwięku. Niektórzy są w stanie generować uzgodnienia, inni kontrolują instrumenty. Programy te zapewniają dostęp, przy niewielkiej wiedzy i zasobach, do dziedzin muzycznych wcześniej zarezerwowanych dla specjalistów (np. Pisanie partytur lub prace związane z obróbką dźwięku ), a także najbardziej zaawansowanego oprogramowania. Zwielokrotniają możliwości profesjonalistów (biblioteki dźwięków, wzrost produktywności w produkcja muzyczna itp.). Łącząc różne programy, możliwe jest zatem wykonywanie wszystkich czynności związanych z twórczością muzyczną na jednym komputerze: komponowanie, aranżacja , wykonanie przez syntezatory i nagrywanie źródeł dźwięku , miksowanie , aż do dystrybucji utworu (w Internecie lub przez nagrywanie na dysk).

Dla użytkownika oprogramowanie muzyczne można analizować pod dwoma kątami:

Połączenie tych dwóch kryteriów jest często używane jako argument (przynajmniej w marketingu) w celu odróżnienia oprogramowania profesjonalnego od oprogramowania „konsumenckiego” .

Oprogramowanie

Komputerowe oprogramowanie muzyczne dzieli się zwykle na następujące kategorie:

Wśród programów do obróbki dźwięku rozróżniono te, które obsługują dźwięk syntetyczny (na przykład dźwięk przechowywany na niedrogiej karcie dźwiękowej) od tych, które manipulują prawdziwymi dźwiękami (na przykład „cyfrowe magnetofony” rejestrujące instrumenty analogowe). Dźwięk pochodzenia analogowego jest znacznie bardziej zachłanny w zasobach obliczeniowych (przetwarzanie i przechowywanie) niż dźwięk syntezy, ale bliższy rzeczywistemu brzmieniu instrumentów. Wraz z rozprzestrzenianiem się interfejsów audio, poprawą jakości syntezy dźwięku i mocą przetwarzania współczesnych komputerów, oba typy dźwięku mają tendencję do łączenia (typowy przykład: miksowanie dźwięków syntetycznych w rytmach skrzynkowych z instrumentami analogowymi). Większość aktualnych programów pozwala na taką kombinację.

Uwaga

  1. Tym dwóm kryteriom często się przeciwstawia (zgodnie z uprzedzeniem, że „władza” oznacza „złożoność”); w rzeczywistości rosnąca moc komputerów pozwala programistom oferować coraz mocniejsze produkty o ulepszonej ergonomii.

Zobacz też

Powiązane artykuły

Link zewnętrzny