Musica e intelligenza artificiale

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Per musica e intelligenza artificiale si intende il contributo dato dall'IA nell'ambito della musica. La ricerca sull'intelligenza artificiale (IA) ha avuto un impatto sulla diagnosi medica, sulla finanza, sul controllo dei robot e su molti altri campi, compreso quello musicale. L'intelligenza artificiale e la musica (AIM) sono state a lungo un argomento comune in numerose conferenze e workshop, tra cui l'International Computer Music Conference, la Computing Society Conference [1] e la International Joint Conference on Artificial Intelligence. In effetti, la prima Conferenza Internazionale sulla Computer Music è stata l'ICMC nel 1974, presso la Michigan State University.[2] La ricerca attuale include l'applicazione dell'IA nella composizione musicale, performance, teoria ed elaborazione del suono digitale.

Sono stati sviluppati diversi software musicali che utilizzano l'intelligenza artificiale per produrre musica.[3] Come le sue applicazioni in altri campi, l'IA in questo caso simula anche compiti mentali. Una caratteristica importante è la capacità dell'algoritmo di apprendere in base alle informazioni ottenute come la tecnologia di accompagnamento del computer, che è in grado di ascoltare e seguire un esecutore umano in modo che possa eseguire in sincronia.[4] L'intelligenza artificiale guida anche la cosiddetta tecnologia di composizione interattiva, in cui un computer compone musica in risposta all'esibizione di un musicista dal vivo. Esistono molte altre applicazioni AI per la musica che prevedono non solo la composizione, la produzione e le performance musicali, ma anche il modo in cui viene commercializzata.

Nel 1960, il ricercatore russo R. Kh. Zaripov ha pubblicato il primo articolo al mondo sulla composizione di musica algoritmica utilizzando il computer Ural-1.[5]

Nel 1965, l'inventore Ray Kurzweil ha presentato per la prima volta un brano per pianoforte creato da un computer in grado di riconoscere pattern in varie composizioni. Il computer è stato quindi in grado di analizzare e utilizzare questi modelli per creare nuove melodie. Il computer ha debuttato nel programma I've Got a Secret di Steve Allen e ha bloccato i presentatori fino a quando la star del cinema Henry Morgan ha indovinato il segreto di Ray.[6]

Nel 1997, un programma di intelligenza artificiale chiamato Experiments in Musical Intelligence (EMI) sembrava superare un compositore umano nel compito di comporre un brano musicale che imita lo stile di Bach.[7]

Interactive scores

[modifica | modifica wikitesto]

Gli scenari multimediali nelle partiture interattive sono rappresentati da oggetti temporali, relazioni temporali e oggetti interattivi. Esempi di oggetti temporali sono suoni, video e controlli della luce. Gli oggetti temporali possono essere attivati da oggetti interattivi (solitamente lanciati dall'utente) e diversi oggetti temporali possono essere eseguiti simultaneamente. Un oggetto temporale può contenere altri oggetti temporali: questa gerarchia ci permette di controllare l'inizio o la fine di un oggetto temporale controllando l'inizio o la fine del suo genitore. La gerarchia è sempre presente in tutti i tipi di musica: i brani musicali sono spesso gerarchizzati da movimenti, parti, motivi, misure, tra le altre segmentazioni.[8][9]

Computer Accompaniment (Carnegie Mellon University)

[modifica | modifica wikitesto]

Il Computer Music Project della CMU sviluppa musica per computer e tecnologia per le performance interattive per migliorare l'esperienza musicale e la creatività umana. Questo sforzo interdisciplinare si basa su teoria musicale, scienze cognitive, intelligenza artificiale e apprendimento automatico, interazione uomo - macchina, sistemi in tempo reale, computer grafica e animazione, multimedia, linguaggi di programmazione ed elaborazione del segnale .[10]

Sviluppato presso la Princeton University da Ge Wang e Perry Cook, ChucK è un linguaggio multipiattaforma basato su testo che consente la sintesi, la composizione, l'esecuzione e l'analisi della musica in tempo reale.[11] È utilizzato da SLOrk (Stanford Laptop Orchestra)[12] e PLOrk (Princeton Laptop Orchestra).

MorpheuS [13] è un progetto di ricerca di Dorien Herremans ed Elaine Chew presso la Queen Mary University di Londra, finanziato dal progetto dell'UE Marie Skłodowská-Curie. Il sistema utilizza un approccio di ottimizzazione basato su un algoritmo di ricerca di quartiere variabile per trasformare i pezzi del modello esistenti in pezzi nuovi con un livello prestabilito di tensione tonale che cambia dinamicamente in tutto il pezzo. Questo approccio di ottimizzazione consente l'integrazione di una tecnica di rilevamento dei pattern al fine di rafforzare la struttura a lungo termine e temi ricorrenti nella musica generata. I brani composti da MorpheuS sono stati eseguiti in concerti sia a Stanford che a Londra.

Creato nel febbraio 2016, in Lussemburgo, AIVA è un programma che produce colonne sonore per qualsiasi tipo di media. Gli algoritmi alla base di AIVA sono basati su architetture di apprendimento profondo [14] AIVA è stato utilizzato anche per comporre una traccia Rock chiamata On the Edge,[15] così come un brano pop Love Sick [16] in collaborazione con la cantante Taryn Southern,[17] per la creazione del suo album del 2018 "I am AI".

  1. ^ INFORMS Computing Society Conference: Annapolis: Music, Computation and AI Archiviato il 30 giugno 2012 in Archive.is.. Rcf.usc.edu. Retrieved on 2010-12-22.
  2. ^ International Computer Music Association - ICMC. Computermusic.org (2010-11-15). Retrieved on 2010-12-22.
  3. ^ D. Herremans, C.H., Chuan, E. Chew, A Functional Taxonomy of Music Generation Systems, in ACM Computing Surveys, vol. 50, n. 5, 2017, pp. 69:1–30, DOI:10.1109/TAFFC.2017.2737984, arXiv:1812.04832.
  4. ^ Copia archiviata (PDF), su Semantic Scholar. URL consultato il 23 agosto 2018 (archiviato dall'url originale il 23 agosto 2018).
  5. ^ R.Kh. Zaripov, Об алгоритмическом описании процесса сочинения музыки (On algorithmic description of process of music composition), in Proceedings of the USSR Academy of Sciences, vol. 132, n. 6, 1960.
  6. ^ kurzweiltech.com, http://www.kurzweiltech.com/raybio.html.
  7. ^ George Johnson, Undiscovered Bach? No, a Computer Wrote It, in The New York Times, 11 novembre 1997. URL consultato il 29 aprile 2020.
    «Dr. Larson was hurt when the audience concluded that his piece -- a simple, engaging form called a two-part invention -- was written by the computer. But he felt somewhat mollified when the listeners went on to decide that the invention composed by EMI (pronounced Emmy) was genuine Bach.»
  8. ^ Mauricio Toro, Myriam Desainte-Catherine, Camilo Rueda. Formal semantics for interactive music scores: a framework to design, specify properties and execute interactive scenarios. Journal of Mathematics and Music 8 (1)
  9. ^ (EN) ossia.io, https://ossia.io/.
  10. ^ Computer Music Group. 2.cs.cmu.edu. Retrieved on 2010-12-22.
  11. ^ ChucK => Strongly-timed, On-the-fly Audio Programming Language. Chuck.cs.princeton.edu. Retrieved on 2010-12-22.
  12. ^ Driver, Dustin. (1999-03-26) Pro - Profiles - Stanford Laptop Orchestra (SLOrk), pg. 1. Apple. Retrieved on 2010-12-22.
  13. ^ D. Herremans, E. Chew, MorpheuS: Automatic music generation with recurrent pattern constraints and tension profiles, in IEEE Transactions on Affective Computing, PP(1), 2016, DOI:10.1109/TAFFC.2017.2737984, arXiv:1812.04832.
  14. ^ [1]. AIVA 2016
  15. ^ [2] AI-generated Rock Music: the Making Of
  16. ^ [3] Love Sick | Composed with Artificial Intelligence - Official Video with Lyrics | Taryn Southern
  17. ^ [4] Algo-Rhythms: the future of album collaboration

Voci correlate

[modifica | modifica wikitesto]

Altri progetti

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]