Les paramètres et algorithmes utilisés pour le ciblage et la diffusion de votre publicité sont-ils discriminatoires?

Le ciblage des publics publicitaires vise à atteindre le plus grand nombre possible de personnes intéressées au produit annoncé. Tout budget média étant limité et un annonceur ne pouvant s’adresser à tout le monde, il doit faire des compromis et utiliser des paramètres de ciblage afin de limiter le nombre de personnes pour qui l’annonce pourrait être moins pertinente.

Certains critiques ont soulevé la question de savoir si le fait de cibler certains groupes de personnes pour sa publicité était discriminatoire, et des poursuites ont été intentées contre certains fournisseurs média.1

Afin de répondre à cette question, nous devons d’abord expliquer comment on définit les auditoires ainsi que la relation entre les données d’auditoires et la diffusion basée sur ces données.

La plupart des médias conventionnels disposent d’études montrant que certains magazines ou certaines émissions de télé plaisent plus à certains groupes qu’à d’autres. Par exemple, plus d’enfants regardent les émissions pour enfants que les bulletins de nouvelles. Historiquement, on décrit ces publics selon l’âge ou le genre. Les fournisseurs média peuvent aussi ajouter l’intérêt des lecteurs ou téléspectateurs. Ils peuvent en outre s’appuyer sur des sondages pour établir un lien avec les habitudes d’achat de leur auditoire. La quantité d’information que ces sondages peuvent recueillir est cependant limitée. Par conséquent, la plupart des médias se contentent d’informations de base sur l’âge et le genre pour définir leur public, ce qui – dans l’ensemble – sert bien les annonceurs.

Or, si le public de la publicité est ciblé, on n’empêche personne de voir une annonce, de regarder une émission ou de lire un magazine. L’émission est fixe : elle est identique pour les téléspectateurs, quel que soit leur âge, leur genre ou toute autre caractéristique démographique. Bien que les annonceurs décrivent ce phénomène comme « débordement média », ils acceptent un certain degré de diffusion hors cible qui s’adresse aux utilisateurs occasionnels ou aux acheteurs éventuels, ce qui soutient au bout du compte les ventes et la croissance à long terme de leur marque.

Pour sa part, la publicité numérique offre beaucoup plus de façons de définir les auditoires et de diffuser les publicités. Premièrement, le public peut être établi en fonction de toutes sortes de critères – information qui peut être fournie par le consommateur ou la consommatrice (affirmer son intérêt pour le jardinage dans les réseaux sociaux, par exemple), ou observée (consultation de plusieurs sites de marques d’automobiles lors de la recherche d’une nouvelle auto…) – les possibilités sont quasi illimités. Deuxièmement, grâce à la diffusion des annonces en temps réel, l’auditoire d’une émission peut voir des publicités complètement différentes selon les données disponibles à son sujet. Ces données de visionnement en temps réel peuvent être fournies directement par l’annonceur ou provenir de tiers, les sites de météo par exemple.

Inclure ou exclure?

La diffusion de la publicité peut être inclusive ou exclusive. Autrement dit, l’annonceur peut choisir ses cibles ET INCLURE certains groupes tout en EXCLUANT certains autres. Les choix en matière de ciblage peuvent facilement réduire le « débordement média » et générer des auditoires très précis pour les annonces. De surcroît, la campagne peut être gérée par un algorithme qui ajuste la diffusion selon les paramètres fixés.

Les critères de ciblage sont établis par l’annonceur ou par son agence. Les algorithmes peuvent être fournis par l’annonceur ou par l’agence. De son côté, le fournisseur média peut aussi appliquer un algorithme additionnel à la diffusion des annonces. Tous trois – annonceur, agence, fournisseur média – peuvent fournir des données additionnelles.

Quel est le risque?

L’annonceur risque d’être accusé de discrimination2 selon la combinaison de son offre, de sa création, de ses critères de ciblage et/ou du type d’annonce, des données recueillies et des algorithmes employés. Certains de ces facteurs sont contrôlés par l’annonceur, d’autres le sont par la plateforme et certains autres, par les deux.

Les allégations de pratique discriminatoire seront testées en examinant les critères de ciblage établis par l’annonceur. Celui-ci peut être plus à risque s’il les établit lui-même plutôt qu’à travers son agence à la suite d’un bref média. Dans ce cas, le bref lui-même sera analysé en plus des critères établis par l’agence en fonction de sa compréhension des indications du client. Les clauses applicables de l’entente de services conclue entre l’annonceur et l’agence seront aussi passées au crible.

Certains types de publicité sont plus susceptibles d’être l’objet d’allégations de discrimination, pensons par exemple aux annonces dans les domaines du recrutement, du logement, des services financiers ou de la santé. Les annonceurs de ces secteurs doivent prendre les précautions nécessaires pour que leurs messages soient accessibles au plus grand nombre, que leurs formulaires soient neutres, et qu’ils s’efforcent de faire augmenter le taux de réponse à partir d’une optimisation neutre des résultats d’affaires.

Une fois que l’annonceur s’est assuré que ses annonces ne sont pas discriminatoires, il doit se demander si ses plateformes publicitaires et son interaction avec elles ne le mettent pas à risque.

L’algorithme d’une plateforme peut utiliser un flux de données provenant du site de l’annonceur pour optimiser la diffusion des annonces. Un pixel de conversion est un exemple de cet arrangement.

Les données de tels pixels sont, en règle générale, rendues anonymes et amalgamées dans une grande quantité d’autres informations. Les plateformes n’indiquent pas toutes les sources de leurs données et ne divulguent pas non plus les politiques qui guident leurs décisions d’inclure ou d’exclure qui que ce soit. Or, on a constaté que les pixels de conversion de certaines plateformes recueillaient des renseignements très délicats sur la santé des Canadiens, information qui était incorporée dans la banque de données servant à l’optimisation de la diffusion des publicités.

« Facebook a accepté et a déjà entrepris des démarches auprès d’universités, de chercheurs, de militants des droits de la personne et de la vie privée, de même que d’experts de la société civile afin d’étudier la modélisation algorithmique des plateformes de réseaux sociaux, et plus particulièrement le potentiel d’introduction involontaire de biais dans les algorithmes et les systèmes algorithmiques qui sont de plus en plus répandus, voire omniprésents, dans les plateformes internet et les réseaux sociaux. Facebook reconnaît que le déploiement responsable des algorithmes exige de comprendre leur potentiel de biais et d’avoir la volonté de repérer et de prévenir les résultats discriminatoires. S’il reste beaucoup à faire, en s’engageant auprès de ces groupes à étudier les biais involontaires des algorithmes dans les réseaux sociaux, Facebook fait un pas en avant essentiel. »3

Protéger l’annonceur

L’annonceur n’a aucune raison d’accepter un tel risque. Même si les conditions des contrats des plateformes s’efforcent de rejeter certaines responsabilités sur leurs utilisateurs, en incluant une clause stipulant que « l’utilisation de cette plateforme signifie l’acceptation de ses conditions d’utilisation », cela ne dispense pas ces plateformes de leur responsabilité quant aux résultats de leurs algorithmes et de leurs sources de données. Lors de la réunion du Grand comité international sur les mégadonnées, la protection des renseignements personnels et la démocratie, les plateformes ont d’ailleurs unanimement reconnu leur responsabilité pour les algorithmes qu’elles utilisaient.

L’ACA recommande à ses membres d’établir leurs paramètres de ciblage et de rédiger leurs brefs d’agence de façon à éviter toute discrimination susceptible de résulter des exclusions entraînées par la diffusion de leurs publicités, surtout dans les domaines particulièrement sensibles comme les services financiers, le recrutement, le logement et la santé. Le développement de concepts (dynamiques ou statiques) pour des offres diverses, combiné avec le ciblage média, l’optimisation algorithmique et des sources de données obscures ou problématiques est une opération risquée que l’annonceur doit suivre de près pour éviter tout résultat involontaire.

L’ACA a aussi rédigé un avis à l’usage de l’annonceur indiquant aux plateformes qu’il s’attend à ce qu’elles se conforment à toutes les lois applicables, y compris celles sur les droits de la personne et celles interdisant les pratiques discriminatoires, lors de la diffusion des publicités de l’annonceur et que leurs pratiques et opérations seront passées en revue pour prévenir toute allégation de discrimination.

Pour toute question ou pour obtenir plus d’information à ce sujet, veuillez communiquer avec Chris Williams, notre vice-président, Marketing numérique, à cwilliams@acaweb.ca / 416-964-3805 poste 1002.


1. https://www.hud.gov/sites/dfiles/Main/documents/HUD_v_Facebook.pdf
2. Exemple : Le Code des droits de la personne de l’Ontario http://www.ohrc.on.ca/fr/le-code-des-droits-de-la-personne-de-l%E2%80%99ontario
3. https://fbnewsroomus.files.wordpress.com/2019/06/civilrightaudit_final.pdf