Discussione:Adversarial machine learning

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Commenti degli altri partecipanti al seminario[modifica wikitesto]

Articolo super interessante, ben scritto e dettagliato! --Alessia Arrigoni (msg) 15:58, 18 giu 2021 (CEST)[rispondi]

Nel caso specifico del clustering, lo scopo di un attacco adversarial è quello di massimizzare la distanza (definita tramite una qualche appropriata misura) fra i cluster che si otterrebbero partizionando un dataset D {\textstyle D} {\textstyle D} mediante un determinato algoritmo di clustering e quelli che invece verrebbero prodotti eseguendo lo stesso algoritmo su un dataset D ′ {\displaystyle D'} {\displaystyle D'}, ottenuto dall'unione fra D {\displaystyle D} {\displaystyle D} e A {\textstyle A} {\textstyle A}, dove A {\displaystyle A} A è l'insieme degli input malevoli inseriti dall'attaccante. Credo che il periodo questo periodo sia un po' complesso,anche se non sono troppo sicuro di come potrebbe rivisto, per il resto mi sembra davvero un ottimo articolo, su una tematica tanto interessante quanto delicata --Scraich (msg) 16:11, 18 giu 2021 (CEST)[rispondi]

Articolo molto interessante! --Margalb (msg) 16:59, 18 giu 2021 (CEST)[rispondi]

Observations and suggestions for improvements[modifica wikitesto]

The following observations and suggestions for improvements were collected, following expert review of the article within the Science, Tecnology, Society and Wikipedia course at the Politecnico di Milano, in June 2021.

La trattazione è abbastanza esaustiva. Sarebbe da precisare meglio cosa si intende per norma di δx e che da questa si hanno luogo diversi attacchi. Si sarebbe potuto anche citare gli attacchi basati sul surrogate model

Ettmajor (msg) 12:49, 11 lug 2021 (CEST)[rispondi]