Uno studio della Northeastern University ha analizzato come gli algoritmi per l’erogazione di campagne pubblicitarie agiscano indipendentemente dalle scelte dell’investitore e possono penalizzare la comunicazione
di Fabrizio Angelini
Gli studiosi della Northeastern University nei giorni scorsi hanno rilasciato uno studio dal titolo abbastanza illuminante “discriminazione attraverso l’ottimizzazione” le cui conclusioni nel nostro Paese non sono state commentate né hanno ricevuto particolare attenzione. Credo invece che alcuni spunti siano molto interessanti e pongano dei quesiti su cui tutti gli operatori del settore dell’advertising on-line e della comunicazione si dovrebbero interrogare.
Di cosa si tratta
Lo studio ha cercato di dimostrare l’ipotesi (già avanzata in passato) che il puro processo di AD Delivery influenzi l’erogazione della campagna a una determinata tipologia di target indipendentemente dalle scelte dell’investitore, cioè anche quando quest’ultimo non abbia indicato alcuna caratteristica di profilazione. Lo studio, inoltre, individua i fattori creativi che determinano la cosiddetta “rilevanza” dell’annuncio rispetto al target generando discriminazioni e distorsioni nell'erogazione della campagna. L’analisi è stata condotta sulla piattaforma advertising di Facebook ma i punti di attenzione sollevati sono più generali e potenzialmente in grado di estendersi a tutti i processi di automazione delle transazioni online basati su sistemi di machine learning.
Quali evidenze sono emerse
La prima e più forte conclusione dello studio è che i processi di Ad Delivery - totalmente controllati delle piattaforme - sono in grado di produrre in modo autonomo distorsioni/discriminazioni nell'erogazione delle campagne a determinate tipologie di target. Tali distorsioni/discriminazioni avvengono sulla base della classificazione automatica dei contenuti dell’annuncio tra i quali le immagini svolgono un ruolo preponderante. Le distorsioni/discriminazioni si basano su “stereotipi” ovvero sulla serie storica di reazioni a una determinata tipologia di contenuto/immagine che i sistemi di machine learning elaborano in un algoritmo di erogazione e non sulla reazione allo specifico annuncio in un dato contesto.
Quali sono le possibili implicazioni?
A mio avviso le implicazioni sono notevoli e riguardano una pluralità di aspetti.Negli ultimi anni gli investitori pubblicitari hanno giustamente posto molta attenzione all'efficacia dei processi di Ad Delivery sulle piattaforme focalizzandosi su elementi quali la Visibilità degli annunci (viewability), il traffico non umano e la Brand Safety. Non mi risulta invece che sia stato avviato alcun dibattito sugli algoritmi in grado di definire il targeting anche ad insaputa degli investitori con conseguenze che possono spaziare dal piano etico a quello legale. Soprattutto in alcuni ambiti, si pensi agli annunci di lavoro, a quelli relativi all'accesso al credito, alla salute o alle offerte immobiliari la distorsione nei processi di erogazione a target può creare discriminazioni rispetto a gruppi sociali svantaggiati. Mentre negli Stati Uniti questi tipi di discriminazioni nelle campagne pubblicitarie sono regolamentati e sanzionati dalla legge, anche da noi tali temi mi sembrano degni di attenzione almeno quanto quelli della Brand Safety.
Il fatto che l’algoritmo di erogazione si fondi sull'interpretazione delle esposizioni passate può inoltre mortificare la creatività. Se tende a mostrare a un gruppo sociale immagini e contenuti coerenti con le sue reazioni standard alle esposizioni pregresse l’algoritmo potrebbe completamente distorcere i destinatari di creatività provocatorie magari basate sulla dissonanza cognitiva tra immagini e contenuti scritti. Particolare attenzione dovrebbe poi essere posta sulla pubblicità “politica” se è vero, come dimostra lo studio, che la sola scelta dei soggetti delle immagini sulla base di caratteristiche somatiche o etniche indirizza automaticamente il messaggio a specifici target.