Bienvenue au podcast de MTM !

Le Migration and Technology Monitor présente un podcast consacré au déploiement des technologies et à leur impact sur la vie des personnes concernées. La technologie est présentée comme la solution à tous nos problèmes, une partie inévitable de la vie. Pourtant, nous constatons de plus en plus que la prise de décision automatisée, le profilage sur les réseaux sociaux, la collecte massive de données et les deepfakes nuisent aux individus et perturbent les sociétés. Rejoignez-nous pour rencontrer des journalistes, des chercheurs et des développeurs technologiques du monde entier qui discutent des problèmes et des solutions possibles aux questions les plus urgentes de notre époque, en mettant toujours l'expérience humaine au centre des préoccupations.

Épisode 1 : L'altérisation numérique

Les technologies basées sur l'IA ont besoin d'énormes quantités de données pour fonctionner. Alors que beaucoup de gens pensent encore que l'IA est neutre, de nombreuses études montrent que ces technologies sont biaisées. Non seulement en raison de leur programmation, mais aussi parce que les données utilisées pour les alimenter contiennent des préjugés, du racisme et des schémas discriminatoires. L'IA creuse également considérablement les fractures sociales et porte atteinte aux droits fondamentaux. Nous assistons à ce que l'on appelle l'« altérisation numérique ».

Dans ce podcast, nous explorons comment cela se traduit dans le monde réel et comment les gens sont déjà affectés par l'altérisation numérique. Quatre spécialistes partagent leurs observations et leurs réflexions. Leur principale préoccupation : si l'expérience humaine est retirée de l'équation, les technologies resteront des outils d'oppression plutôt que d'émancipation.

Dans cet épisode : Judith Cabrera, Grace Gichanga, Antonella Napolitano, Ankid Sarin, avec l'animateur Florian Schmitz.

Transcription (également disponible en arabe, français et espagnol sur nos sous-sites) :

[00:00:01.120]

Bonjour et bienvenue au premier MTM, le premier podcast interne de Migration and Technology Monitor. Je m'appelle Florian Schmitz. Je suis journaliste et je supervise également le programme de bourses du MTM. Nous avons enregistré cet épisode en novembre 2025 à Nairobi, au Kenya, en marge d'un rassemblement très spécial. Grâce à beaucoup de travail et à l'aide de la Fondation allemande Heinrich-Böll et de la Fondation Robert-Koch, nous avons réussi à réunir les boursiers MTM de trois années différentes. Les boursiers MTM sont des professionnels issus de pays du Sud qui ont vécu des expériences de migration et d'occupation. Tous travaillent sur des questions à la frontière entre la technologie et les droits humains. Au MTM, nous soutenons leur travail avec une bourse de 30 000 dollars. Mais bien sûr, nous voulons aller plus loin. Nous les avons fait venir au Kenya pour les mettre en contact avec des chercheurs, des journalistes, des militants et des défenseurs des droits humains afin qu'ils puissent discuter ensemble de l'utilisation de la technologie et de la manière dont cette utilisation peut entrer en conflit avec les droits humains. Ils devaient partager leur expertise et apporter à la discussion le facteur très important de leur expérience vécue. C'est quelque chose que nous ne faisons pas très souvent dans les pays du Nord.

[00:01:19.820]

Malheureusement, nous préférons de loin prendre des décisions concernant les gens sans les impliquer. Et nous développons des technologies qui promettent de résoudre tous nos problèmes, un phénomène très répandu souvent appelé « techno-solutionnisme ». Et nous affirmons que la technologie est neutre. Mais l'est-elle vraiment ? Des études ont montré à maintes reprises que l'intelligence artificielle reproduit et renforce les préjugés que nous avons en tant que sociétés. Résultat : le fossé entre les personnes de couleur et les personnes blanches se creuse. Les réfugiés et les migrants sont criminalisés. Les gens sont privés de leurs droits fondamentaux. Nous appelons ce processus « l'altérisation numérique ». Et c'est le sujet de notre premier podcast. J'ai eu le plaisir de m'entretenir avec quatre experts à ce sujet. Certains sont membres du MTM, d'autres non. Vous entendrez Antonella Napolitano, une chercheuse italienne qui est l'une des pionnières dans le domaine de la technologie et des droits humains en Europe. Vous entendrez également Grace Gichanga, avocate spécialisée dans les droits humains à Johannesburg, qui vous fera part de son point de vue sur l'Afrique du Sud, un pays qui, pour les Américains et les Européens, passe totalement inaperçu en matière de migration. Ankid, chercheur et journaliste indien, expliquera comment les habitants du Cachemire, l'un des endroits les plus surveillés au monde, souffrent de l'intrusion de la technologie dans leur vie et leur vie privée. 

[00:02:43.350]

La première invitée que vous entendrez est Judith Cabrera. Judith est originaire de Tijuana, où elle dirige le Borderline Crisis Center. La frontière entre le Mexique et les États-Unis fait régulièrement la une des journaux depuis quelques années en raison des dures réalités auxquelles sont confrontés les demandeurs d'asile, qui subissent les difficultés et la cruauté du côté américain. Mais des personnes comme Judith, qui se retrouvent seules face à ce chaos, à la souffrance et aux dangers causés par un régime frontalier violent, sont également profondément touchées par la situation. Les politiques en constante évolution rendent le travail de personnes comme elle imprévisible. Les gouvernements mexicain et américain les ont laissées seules face à l'énorme tâche de mettre de l'ordre dans ce chaos. À un moment donné, elles ont même dû gérer des listes et décider qui aurait droit à l'un des rares entretiens à la frontière et qui n'y aurait pas droit. Une tâche terrible qui les a placés au milieu de personnes désespérées, qui attendaient à Tijuana depuis des mois ou des années, de criminels, qui tentaient de tirer profit de tout cela, et des services de sécurité eux-mêmes. La technologie - vous l'avez peut-être deviné - était censée résoudre tout cela, mais écoutez Judith qui en donne un témoignage de première main.

 

[00:03:56.340]

Les États-Unis ont intégré une application appelée CBP-1. Dans quelle mesure cela a-t-il changé la situation à la frontière ? Cela a-t-il allégé la pression ? Cela a-t-il créé davantage de pression ? Qu'avez-vous constaté sur le terrain ?

 

[00:04:10.530]

CBP-1 est une application utilisée par les douanes et la police des frontières pour gérer les flux migratoires. Elle est toujours utilisée aujourd'hui. Si vous vous éloignez d'un certain nombre de kilomètres de la frontière, vous devez demander un permis spécial. Vous pouvez désormais le faire via CBP1. Ils ont ensuite décidé d'intégrer la procédure d'asile à cette application. Ainsi, au lieu de vous présenter physiquement à la frontière et d'entrer sur leur territoire, vous demandez désormais un rendez-vous via cette application et, lorsque votre tour vient, vous vous présentez et la procédure commence.

 

[00:04:55.490]

J'imagine que s'inscrire sur cette application n'est pas aussi simple que d'ouvrir un compte Amazon. Est-ce compliqué ?

 

[00:05:04.780]

C'était très compliqué. Et c'est là que nous commençons à parler d'accès. Tout d'abord, il faut avoir un smartphone. Or, tous les demandeurs d'asile n'en ont pas, en raison de leur pauvreté. Il faut donc avoir un smartphone, il faut avoir une connexion Internet, ce qui n'est pas le cas de tout le monde. Et il faut savoir utiliser ce smartphone et avoir des compétences numériques, ce qui n'est pas le cas de tout le monde. Nous avons vu comment les plus jeunes ont soudainement pris un rôle prépondérant dans leur famille, car les plus âgés ne savaient pas comment utiliser cette application. Et surtout quand on parle de personnes âgées, certaines ne savent même pas lire ou écrire. Comment s'inscrire dans une application si l'on ne sait pas lire ? On n'a pas de téléphone, on n'a pas Internet. Et même lorsqu'on y parvient, après beaucoup d'efforts, on ne sait pas comment l'utiliser. C'était donc le problème et cela...

 

[00:06:04.400]

Mais il y a eu des bugs, non ? Est-ce que l'application fonctionnait bien ou est-elle tombée en panne ?

 

[00:06:09.440]

Il y avait toutes sortes de problèmes techniques. Tout d'abord, il n'était disponible qu'en espagnol et en anglais. Or, nous avons une importante population originaire d'Haïti, et il y a dans le monde une grande partie de la population qui ne parle ni anglais ni espagnol. Les Haïtiens l'ont donc traduit eux-mêmes. Il existe une organisation appelée Haitian Bridge Alliance. Ils ont traduit l'intégralité du document et l'ont envoyé, car ils n'étaient pas assez rapides. Nous avons dû faire beaucoup de pression pour qu'il soit accessible dans différentes langues. Et puis, malgré ces problèmes techniques, voici ce qui est très intéressant : il prend vos données biométriques, il prend une photo de vous. Mais vous savez que ce logiciel de reconnaissance faciale a du mal à reconnaître les peaux foncées. La population haïtienne était donc encore plus limitée dans son accès à ce service.

 

[00:07:08.440]

À quelle fréquence cela s'est-il produit ?

 

[00:07:09.800]

Tous les jours. Tous les jours. Et puis, on ne pouvait demander le rendez-vous qu'à 6 heures du matin, donc tout le monde était debout à 6 heures pour le faire en même temps, de 6 heures à 7 heures. Et ils ont planté l'application parce qu'il y avait trop de personnes connectées en même temps. Ils ne l'ont modifiée que plusieurs mois plus tard.

 

[00:07:29.330]

Une autre information que je voudrais partager, c'est que les gens pourraient se demander pourquoi, s'ils venaient du Guatemala ou d'ailleurs, ils n'ont pas simplement utilisé l'application là-bas. Il faut être à proximité de la frontière pour pouvoir s'inscrire, n'est-ce pas ?

 

[00:07:43.330]

Géolocalisation. Si vous n'êtes pas à proximité de la frontière ou à Mexico, vous ne pouvez pas, vous ne pouvez pas postuler. Et puis, ce qui s'est passé, c'est que le crime organisé, qui dispose de pirates informatiques et de personnes qui savent ce qu'est un VPN, ce qui est quelque chose de très, très avancé pour la plupart des gens, vous facturait l'installation d'un VPN et l'obtention d'un rendez-vous. Et puis, comme il n'était possible de l'utiliser que de 6 à 7 heures, eh bien, le soleil n'était pas encore levé dans beaucoup d'endroits, donc l'éclairage n'était pas bon. Et il y avait des gens qui passaient des semaines à essayer de s'inscrire, sans même demander de rendez-vous. C'était donc très frustrant. Et le gouvernement, vous savez ce qu'il a fait ? Il a fourni une connexion Internet à tous les refuges. En gros, il a dit : « Oh, vous vous plaignez de l'accès ? Je vais payer votre connexion Internet. Oh, vous pouvez payer ma connexion Internet maintenant, vous savez, et c'est là que vous voyez la conformité avec les intérêts des États-Unis qui est toujours présente. Il y a donc eu beaucoup de plaintes. Mais je peux aussi vous dire, d'après mon expérience personnelle, et ce n'est pas une opinion populaire, que le CBP1, malgré tous ses problèmes, était le moyen le moins problématique de demander l'asile depuis 2016, car enfin, les gens pouvaient le faire eux-mêmes, plus ou moins.

 

[00:09:16.400]

Et personne n'avait à payer pour cela, car désormais, l'accès ne dépend plus de personne. Personne n'en tire donc profit, et ce n'est pas à nous de le faire pour les organisations et le côté mexicain. Cela a donc pris beaucoup de risques, vous savez, et cela nous a finalement apporté un peu de tranquillité d'esprit. Maintenant, nous devons travailler pour vous donner accès à l'application, mais même si vous me mettez un pistolet sur la tempe, je ne peux pas le faire plus vite pour vous. Nous étions donc plus en sécurité. Oui. Et puis, un autre problème était qu'ils n'étaient pas clairs. Ils n'ont pas de politique de confidentialité. Nous ne savions pas ce qu'il allait advenir de ces informations. Et nous avons continué à demander : « Que comptez-vous faire de ces données ? » Pas de réponse. Et qui peut avoir accès à ces données ? Nous ne le savons pas. Et cela va-t-il vous aider à surveiller les personnes une fois qu'elles sont aux États-Unis ? Non, ce n'est pas pour cela que nous le voulons. Mais ensuite, le deuxième mandat de Donald Trump est arrivé, et ils ont pu localiser tous les demandeurs d'asile aux États-Unis et potentiellement les expulser.

 

[00:10:29.860]

Vous savez, et c'est exactement ce qu'ils font.

 

[00:10:31.820]

Et c'est effectivement ce qu'ils font. Oui.

 

[00:10:33.460]

J'ai lu aujourd'hui un article qui disait qu'ils avaient fait une descente dans une école maternelle quelque part aux États-Unis. Des gens masqués ont simplement arraché une personne de là - je ne sais même pas de quel pays elle venait - mais ils l'ont simplement, je veux dire, devant tous les enfants et les parents, ils l'ont attrapée et l'ont emmenée hors de cette école maternelle. Je veux dire, qu'est-ce que c'est que ça ?

 

[00:10:55.950]

Eh bien, avant, il y avait des lieux de refuge, comme les écoles, les hôpitaux et les tribunaux. Et ils ont supprimé tout ça. Par exemple, si vous devez vous rendre au tribunal dans le cadre de votre procédure d'asile, ils peuvent vous arrêter à l'entrée parce que vous n'êtes pas encore en situation régulière et vous expulser à partir de là. Alors, que faire ? Allez-vous au tribunal ou ne vous y rendez-vous pas ? Et si vous n'y allez pas, vous perdez toute la procédure. C'est juste une chasse à l'homme, vous voyez, c'est vraiment horrible. Et puis, ce qu'ils ont fait le 20 janvier... Je suis désolé, le 20 janvier a été vraiment traumatisant pour nous tous. Le premier jour où cette personne a repris les rênes de la Maison Blanche, ils ont supprimé l'asile en un clin d'œil. Et le fait que tout soit dans une application a été très utile pour cela. Vous savez, il suffit de supprimer cette fonctionnalité dans l'application. Et beaucoup de gens se sont retrouvés bloqués sur le chemin de la frontière. Beaucoup de gens avaient déjà leur rendez-vous, et ils l'ont perdu. Beaucoup de gens étaient déjà à la frontière ce jour-là, car il y avait trois équipes qui arrivaient, et ils n'ont pris que la première équipe le matin, qui était, je crois, à 5 heures du matin, et ensuite, les gens qui devaient entrer à 9 heures n'ont plus eu accès.

 

[00:12:19.400]

Et vous parlez encore une fois de personnes venues du monde entier. Nous avons aidé des Iraniens qui étaient bloqués au Chiapas, à notre frontière sud. Et maintenant, ils ne peuvent ni avancer, ni reculer. Que vont-ils faire dans un endroit où personne ne parle leur langue ? Nous avons accueilli des personnes venues de Colombie. Elles avaient emporté toute leur vie avec elles. Elles pensaient que ce jour-là, elles allaient entrer aux États-Unis et ne plus jamais revenir. Et elles se sont retrouvées bloquées à Tijuana. C'était dévastateur. Vraiment. C'était horrible.

 

[00:12:57.450]

Je vois que cela vous émeut beaucoup aussi de parler de ces choses. Je suis sûr que vous voyez beaucoup de difficultés et de désespoir auxquels vous ne pouvez pas remédier.

 

[00:13:08.700]

Vous savez, ça a été très difficile. Ils n'arrêtaient pas de travailler sur les bugs de l'application et tout ça. Et puis, il est devenu évident que l'algorithme était programmé pour retarder les demandes des Mexicains. Toutes les autres nationalités pouvaient aller plus vite, vous savez, si vous étiez, je ne sais pas, originaire de Perse. Vous arrivez à Tijuana et deux semaines plus tard, vous avez votre rendez-vous. Eh bien, les Mexicains pouvaient y rester six, sept, huit mois. Avez-vous une idée de ce que cela représente, de ce que cela fait à une personne de vivre dans un refuge pendant huit mois ? Et puis, vous obtenez enfin votre rendez-vous et ils vous disent simplement qu'il est annulé. Est-ce qu'il va être reporté ? Allez-vous respecter le fait que j'avais déjà un rendez-vous ? Non. Puis-je espérer que cela se produise dans quelques mois ? Non, cela n'arrivera tout simplement pas. Nous avions quelques familles au refuge qui, après une très longue attente, ont finalement obtenu leur rendez-vous. Et puis vous devez leur expliquer que nous ne savons même pas ce qui se passe et que nous ne savons même pas à quoi nous attendre. Et ce type signe des décrets à tour de bras.

 

[00:14:21.470]

Et oui, ça a été très difficile. Ça a été très difficile parce que soudainement, il n'y avait plus d'espoir. Je veux dire, tout ce dont nous avons parlé depuis 2016, au moins il y avait un moyen. Je veux dire, c'était imparfait et c'était, vous savez, lent, mais il y avait un moyen. Et bien sûr, nous nous en sommes plaints aussi.

 

[00:14:40.300]

À juste titre.

 

[00:14:43.820]

Merci. Mais soudain, il n'y a plus aucun moyen. Et actuellement, il y a très peu de personnes dans les refuges, car une fois qu'il n'y a plus moyen de demander l'asile, elles ont commencé à s'intégrer plus rapidement dans la ville, à chercher du travail, à chercher un logement à louer, ce qu'elles ne faisaient pas auparavant, car elles avaient l'espoir d'atteindre les États-Unis. Et beaucoup de gens ne viennent même plus à la frontière. Beaucoup d'entre eux sont repartis. Il y a à Puebla une population originaire du Venezuela. Ils trouvent donc d'autres endroits moins hostiles que Tijuana et s'y installent. D'une certaine manière, cela libère la pression et met fin à l'engorgement de personnes bloquées à la frontière. Mais c'est une situation vraiment triste.

 

[00:15:38.190]

Ce n'est pas une solution. Et Antonella, je t'ai vue acquiescer lorsque Judith parlait des questions posées sur l'utilisation et le stockage des données. Ce sont des questions auxquelles tu es confrontée depuis longtemps également. Tu es chercheuse et tu t'intéresses particulièrement à la frontière entre technologie et droits humains, avec un accent particulier sur les migrations. Dans quelle mesure ce que décrit Judith correspond-il à une tendance mondiale ? Qu'observes-tu ?

 

[00:16:10.880]

Je pense que ce que Judith a décrit résume bien la situation, car bon nombre des éléments des tendances mondiales que nous observons aux États-Unis, au Mexique, mais aussi en Europe et dans d'autres parties du monde, montrent que les frontières sont en quelque sorte élargies par la technologie, elles sont externalisées. Ainsi, dans le cas de l'Union européenne ou du Royaume-Uni, il existe des politiques d'externalisation des frontières, et la technologie et les techniques de surveillance constituent un élément relativement nouveau, pas tout à fait nouveau à l'heure actuelle, mais relativement nouveau dans un processus qui dure depuis des décennies. Une partie de mon travail porte donc sur la manière dont l'Union européenne a utilisé, par exemple, le Fonds fiduciaire de l'UE pour l'Afrique ou d'autres fonds, y compris des fonds de développement, pour externaliser les capacités de surveillance vers des pays tels que les pays africains ou les Balkans, en fournissant des outils, des équipements et des formations de surveillance, dans le but implicite ou explicite de freiner la migration. Parfois, cela se fait sous le prétexte d'une gestion plus efficace. Et tout cela est présenté comme une gestion efficace de la migration, visant à s'attaquer aux causes profondes. Mais en réalité, cela affecte les personnes non seulement pendant leur voyage. Comme Judith l'a mentionné précédemment, cela peut pousser les gens à rechercher des itinéraires plus risqués et plus meurtriers.

 

[00:17:47.070]

Mais ces technologies sont également fournies à des gouvernements autoritaires ou à des démocraties très fragiles. Et ce qui se passe, c'est qu'ils les utilisent également contre les dissidents, les manifestants, les défenseurs des droits humains, les journalistes. Cela rend donc ces pays encore plus instables. Il y a donc la dimension externalisée des frontières, il y a la technologie déployée à la frontière. Et cela peut prendre différentes formes, cela peut prendre la forme d'une base de données où vous devez demander un visa et où vos données sont collectées et partagées, vos données biométriques. Ces bases de données collectent donc de plus en plus d'énormes quantités de données. Nous parlons ici de migration, nous parlons d'asile. Mais cela s'applique aux migrants, pas seulement aux demandeurs d'asile. C'est ainsi que l'Union européenne et d'autres régions, comme d'autres pays dans le monde, choisissent de collecter des données afin de déterminer qui, encore une fois, mérite un visa ou le statut de réfugié. Cela peut prendre la forme d'une technologie plus visible aux frontières, puis dans les camps de réfugiés qui peuvent être très contrôlés, qui disposent de systèmes pour surveiller et contrôler qui entre, qui sort, si vous pouvez, si vous ne pouvez pas. Mais cela s'étend également au-delà des frontières.

 

[00:19:17.170]

Nous connaissons donc la détention des immigrants, mais nous savons également que dans plusieurs pays, je pense par exemple à ceux qui ne font pas partie de l'Union européenne, le Royaume-Uni a mis en place un système de bracelets électroniques GPS pour les personnes libérées de détention. Ce système a été maintes fois rejeté par les tribunaux. Mais cela n'empêche pas les gens d'essayer. Et malgré le fait qu'il n'ait pas été utilisé dans la pratique dans les pays de l'Union européenne, il existe désormais plusieurs lois dans différents États membres qui fournissent une couverture juridique pour son utilisation. Et là encore, même après l'arrivée des personnes, leur demande d'asile ou l'obtention de leur statut, ces systèmes, les scores algorithmiques et différentes formes d'évaluation des données sont utilisés pour fournir des formes d'aide sociale ou pour surveiller les réseaux sociaux. Encore une fois, ce sont tous des systèmes qui combinent différentes techniques et différents outils. Ils permettent de collecter davantage de données, d'augmenter le partage de données, ce qui fait que les gens perdent la trace de leurs données et donc leur capacité d'agir, car ils ne savent pas quelles décisions sont prises à leur sujet à partir de leurs données, ni combien de temps cela va les affecter. Donc, comme je l'ai dit au début, la technologie élargit les frontières, les rend omniprésentes, mais elle sert aussi à masquer la violence et le contrôle qui s'exercent.

 

[00:20:53.920]

Et juste pour prendre note, car il existe également cette idée selon laquelle la technologie serait une solution claire et nette ou quelque chose qui réduit la violence. Tout d'abord, la violence existe aux frontières et à différents niveaux, avec ou sans technologie. Mais ce que la technologie peut faire, c'est fournir davantage de moyens aux gouvernements et aux différentes autorités pour exercer ce type de violence sur les populations.

 

[00:21:23.570]

Et ce ne sont pas seulement les gouvernements, mais aussi le secteur privé qui est très impliqué dans ce domaine. Nous voyons cela aux frontières extérieures de l'Europe, où l'on assiste à une véritable folie avec des quantités massives de données extraites illégalement des personnes. Exactement. Au début de l'année, nous avons mené une enquête et nous avons parlé à des personnes dans le camp fermé et à accès contrôlé de Samos, qui est un camp d'internement de réfugiés à la pointe de la technologie. Je ne vois pas d'autre façon de le décrire. Ils extraient des données des téléphones portables, ils collectent d'autres données biométriques sans que les personnes concernées aient jamais signé de formulaire de consentement. Pourquoi pensez-vous qu'ils collectent toutes ces données ? Pourquoi les entreprises s'y intéressent-elles autant ?

 

[00:22:13.790]

Tout d'abord, le secteur privé est fortement impliqué dans ce que l'on pourrait appeler le complexe industriel frontalier. Il fournit non seulement la technologie, mais aussi les discours. Et là encore, nous devons considérer cela non seulement dans le contexte de l'asile et des réfugiés, par exemple, mais aussi dans la manière dont cela s'est normalisé dans l'expérience que chaque citoyen vit à la frontière. L'idée d'une frontière intelligente, encore une fois entre guillemets. Comme une expérience intelligente, propre et fluide. Ce sont tous des concepts utilisés pour transmettre l'idée que la technologie va résoudre un problème. Vous avez mentionné le techno-solutionnisme au début. Dans certains cas, ces entreprises co-conçoivent également cette technologie et son utilisation. Cela se produit donc de plus en plus souvent dans le contexte des partenariats public-privé. Pour vous donner un exemple tiré du domaine de la détention des immigrants et des alternatives à la détention en Australie, un outil d'évaluation des risques permettant de définir et de décider qui sera placé en détention pour des raisons liées à l'immigration a été co-conçu par le gouvernement australien et une entreprise appelée Serco, qui est chargée de la détention des immigrants dans de nombreux pays à travers le monde.

 

[00:23:34.970]

Donc, et, et c'est comme une fonction publique, comme un gouvernement d'État qui co-conçoit avec le secteur privé qui, je veux dire, au fond, son objectif est de faire des profits.

 

[00:23:45.290]

Donc, je veux dire que les gouvernements doivent en quelque sorte nous répondre lorsque nous leur posons des questions. Cependant, d'après mon expérience, et je suis sûr que vous partagez mon avis, vous pouvez poser autant de questions que vous voulez, mais vous n'obtiendrez pas de réponse claire de leur part. L'Union européenne vous répondra, elle vous enverra des documents qui sont tous caviardés et dans lesquels toutes les informations importantes sont noircies. Vous pouvez donc lire toutes les informations ennuyeuses, mais jamais les informations intéressantes, ce qui est extrêmement frustrant. Mais quel est le problème avec les entreprises privées et les institutions semi-privées comme l'ICMPD ou le Centre d'études sur la sécurité en Grèce ? Quel est le problème lorsque le secteur privé empiète à ce niveau sur les responsabilités du gouvernement ?

 

[00:24:27.930]

Il n'existe aucun système de responsabilisation. Aussi imparfaits et difficiles soient-ils, comme vous venez de le décrire, les gouvernements devraient au moins rendre des comptes. Il existe des mécanismes qui peuvent être améliorés, modifiés ou créés. Vous avez mentionné l'accès à l'information. Mais plus largement, les politiciens et les décideurs politiques devraient également rendre des comptes aux citoyens. Ainsi, un citoyen peut décider, par son vote, par une manifestation, par un mouvement, qu'il n'est pas d'accord avec les actions du gouvernement. Mais si une entreprise privée fait quelque chose, elle doit rendre des comptes, je ne sais pas, à son propriétaire, à ses actionnaires. Cela dépend du type d'entreprise et du moment où elle est externalisée. Et c'est quelque chose qui se produit de plus en plus dans de nombreux secteurs. Nous parlons donc de migration, mais cela se produit de plus en plus dans les domaines de la santé, de l'aide sociale, qui rend compte des résultats, des effets, de l'impact que cela a sur les citoyens, sur les personnes, sur les entreprises privées. Il n'existe pas vraiment de mécanisme leur permettant de répondre, d'être responsables des décisions qui sont prises. Et il y a des décisions qui changent la vie, même si vous avez mentionné tout à l'heure le consentement, mais nous n'en sommes même pas au stade du consentement, car pour qu'il s'agisse d'un véritable consentement, vous devez être en mesure de le retirer.

 

[00:25:57.650]

Et les situations ne devraient pas changer pour vous. Mais ce sont des choix impossibles, car même si vous aimez, si la personne pouvait comprendre et donner son consentement éclairé, mais n'a d'autre choix que de consentir, ce n'est pas un consentement significatif. Donc, ce sont...

 

[00:26:11.380]

Tu veux dire comme dans un camp de réfugiés ?

 

[00:26:12.820]

Oui, dans un camp de réfugiés.

 

[00:26:13.900]

Je suppose que je devrais dire non si je sais que cela aura très certainement une incidence sur ma demande d'asile.

 

[00:26:19.180]

Ou à la frontière si on vous le demande. Vous savez donc maintenant qu'il existe des procédures qui vous obligent à fournir vos données biométriques, y compris, à la frontière de l'UE, celles d'enfants âgés d'à peine six ans. Et donc, c'est comme si on disait : « D'accord, mais quelle est l'alternative ? » Comme si on disait : « Oh non, vous devez me donner vos données. Et ensuite, qu'advient-il de mes données ? Je n'ai aucun contrôle sur mes données. Et cela nous ramène au secteur privé. Ce sont des données qui peuvent servir à former des systèmes. Ce sont des données qui peuvent être utilisées pour créer de nouveaux produits. Elles peuvent également être utilisées à d'autres fins, comme ce que nous appelons le « glissement de mission ». Je collecte des données dans un but précis, peut-être même dans le cadre d'un cadre juridique. Mais ensuite, je peux les partager avec une autre agence. Je peux les utiliser à d'autres fins. Je peux partager des données collectées dans un certain contexte à la frontière avec les forces de l'ordre. Donc, pour parler uniquement des agences, nous passerons ensuite aux agences non publiques. Des enquêtes ont été menées et l'organisme de surveillance européen s'est prononcé sur la collaboration entre Frontex, qui est l'agence des frontières et qui n'est pas un organisme chargé de l'application de la loi, et Europol, qui est un organisme européen chargé de l'application de la loi.

 

[00:27:38.200]

Et la manière dont ces deux agences collectent les données est différente, elles sont réglementées différemment. Mais elles partageaient ces données d'une manière très, disons, créative, mais certainement pas très légale. À tel point que le Contrôleur européen de la protection des données a déclaré que cela était illégal et qu'elles devaient supprimer toutes ces données. Et puis il y a les organisations qui ne sont pas des agences publiques, mais qui sont financées par l'Union européenne pour gérer ces projets, comme les projets financés par l'UE qui peuvent concerner l'intégration, ou encore la gestion des frontières. Et là aussi, le langage utilisé est assez révélateur. C'est le langage de la bureaucratie. C'est donc aussi une autre façon de donner une apparence respectable à des processus qui sont intrinsèquement violents et discriminatoires. Vous avez la gestion des frontières, la gestion des migrations, la gestion efficace. Mais ce qui se passe, c'est que, là encore, des enquêtes récentes ont montré que cet argent et ce type de projets ont en fait été utilisés pour kidnapper des migrants et les abandonner dans le désert en Tunisie, en Mauritanie, au Maroc. Cela a été fait avec l'argent de l'UE. Une autre enquête a montré que, là encore, l'argent qui était censé servir à former les forces frontalières a été utilisé par les forces de police internes au Sénégal pour réprimer les manifestations et les dissidents.

 

[00:29:13.970]

Certains de ces projets ont été gérés par des États membres nationaux, des forces de l'ordre et certaines agences. Mais en tant qu'Italien, par exemple, je sais que mon gouvernement participe à la formation, je peux protester, je peux élaborer des solutions, je peux essayer de demander des comptes à mon gouvernement. Mais s'il s'agit d'une agence privée fortement financée par l'UE ou par des États membres, à qui dois-je m'adresser pour leur demander des comptes ? Quelle est la procédure à suivre ? À qui rendent-ils des comptes ? À leurs bailleurs de fonds, je suppose, et non au public.

 

[00:29:50.250]

Je veux dire, il y a autre chose que je trouve vraiment intéressant, surtout que je ne suis pas une experte en technologie. Je ne sais pas comment créer des technologies. Je ne comprends pas vraiment comment fonctionnent les algorithmes. Je commence peut-être à comprendre. Mais ce que j'ai compris, c'est que la qualité des données est très importante pour le bon fonctionnement de n'importe quel système. Et ce que je constate, c'est qu'ils collectent toutes sortes de données et qu'il n'y a pas non plus de normalisation de la manière dont les données sont collectées. Vous savez, si un policier raciste vous interroge à la frontière et que cela est directement enregistré dans Eurodac, ces données ne sont pas fiables. Ce sont des données provenant d'une personne qui a déjà un préjugé. Cela explique aussi pourquoi les systèmes sont si biaisés, n'est-ce pas ?

 

[00:30:35.480]

Je veux dire, ces systèmes, encore une fois, c'est cette idée fausse selon laquelle la technologie va améliorer le processus parce qu'elle est neutre. Mais elle est créée par des humains. C'est comme si les algorithmes étaient entraînés à partir de données collectées et assemblées par des humains. Le problème, cependant, c'est que lorsque l'algorithme commence à apprendre à partir de ces données, il entre dans une sorte de boucle. Il devient alors beaucoup plus difficile de revenir aux données d'origine et de dire : « En fait, ces données étaient erronées. »

 

[00:31:08.130]

Mais il y a aussi autre chose : très souvent, les gens ne savent pas que les décisions sont prises sur la base de ces données. C'est donc là un autre problème. C'est quelque chose que nous avons également constaté dans le cadre d'une enquête sur la surveillance des prestations sociales. Lorsque des algorithmes, au niveau municipal ou régional, décident si vous avez droit à certaines formes d'aide sociale ou de protection sociale, vous ne savez pas que votre demande a été rejetée parce qu'un algorithme a estimé que votre statut de migrant ou de mère célibataire vous rendait plus vulnérable, que vous représentiez un facteur de risque. Vous ne pouvez même pas contester cette décision. Je trouve cela un peu paradoxal, d'après ce que j'ai lu et ce à quoi j'ai contribué dans le cadre de cette enquête : ce qui vous rend vulnérable, et donc en théorie plus éligible à l'aide sociale, vous rend plus risqué et donc moins éligible à l'aide sociale. Mais qui va contester cette mentalité si vous n'en avez même pas conscience ? Je pense donc, par exemple, dans le cas de l'enquête, que le fait que les journalistes aient pu obtenir certaines parties de l'algorithme leur a permis de retourner voir l'administration municipale et de dire : « Regardez, voici les éléments ».

 

[00:32:17.910]

Et c'est pourquoi cela ne fonctionne pas. Il faut reconnaître qu'au final, l'administration municipale, en l'occurrence celle de Rotterdam, a décidé de ne plus utiliser cet algorithme. Mais encore une fois, cela demande beaucoup d'efforts, beaucoup de ressources et une compréhension de la technologie qui ne devrait pas incomber à l'individu. C'est aussi le problème. Parfois, les gens disent : « Oh, mais vous devriez vous protéger et utiliser cette technique contre la reconnaissance faciale ou contre les données. » Elle répond : « Oh, pourquoi les gens partagent-ils autant de données sur Facebook ? À quoi vous attendiez-vous ? Mais cela ne devrait pas incomber aux utilisateurs individuels. Si j'utilise Facebook pour rester en contact avec mes proches dans un autre pays, pourquoi cela devrait-il m'obliger à accepter que l'entreprise collecte mes données, les partage, les vende, établisse mon profil, ce qu'on appelle aujourd'hui le capitalisme de surveillance ? Cela fait également partie des systèmes dans lesquels les données deviennent quelque chose qui peut être monétisé. Mais l'effet vous suit en quelque sorte. C'est comme un effet domino dont vous ne savez même pas quand il va vous toucher. Et je ne parle pas seulement de migration. Je parle des citoyens dans différents aspects de leur vie.

 

[00:33:32.030]

C'est aussi une énorme machine à faire de l'argent. Et cela sous prétexte que l'Europe dit qu'elle ne peut pas accueillir plus de réfugiés. Parce qu'en Europe, nous aimons penser que tous les réfugiés veulent venir en Europe. Et la plupart des réfugiés sont déjà en Europe, ce qui est particulièrement intéressant parce que nous sommes ici, au Kenya, n'est-ce pas ? Et la grande majorité des réfugiés ne se trouvent pas dans les pays du Nord comme l'Europe, mais dans les pays du Sud comme le Kenya, d'où vient mon invitée Grace, en fait. Et quand vous aviez 12 ans, vous avez émigré en Afrique du Sud avec votre famille, où vous travaillez maintenant comme avocate spécialisée dans les droits de l'homme. Ma question est la suivante : dans quelle mesure le système d'asile en Afrique du Sud est-il équitable ou inéquitable ? Et qu'avez-vous observé au niveau de la technologie ? Comment est-elle utilisée en Afrique du Sud ?

 

[00:34:27.090]

Si nous voulons remonter à l'origine, je pense qu'il est important de parler des racines du système d'asile sud-africain et du système migratoire, et de la manière dont ils sont profondément ancrés dans les droits de l'homme et la démocratie, en grande partie à cause du passé, du passé très sombre du pays. Il faut également garder à l'esprit que l'Afrique du Sud est une démocratie très jeune et que, lors de l'élaboration de la législation après 1994, l'idée était de dire « Plus jamais ça ». C'était en grande partie ce qui se passait. Plus jamais ça. Plus jamais d'exclusion. Ainsi, même lors de la rédaction de la Constitution, qui a été saluée comme l'une des meilleures constitutions au monde, bon nombre des principes qui y sont énoncés sont très inclusifs et englobent les migrants. Pendant très longtemps, l'Afrique du Sud a donc été très accueillante envers les migrants et les réfugiés, simplement parce qu'elle semblait vraiment comprendre le contexte dans lequel ces personnes étaient contraintes de fuir. Mais un changement s'est produit en 2008, lorsque, en raison de l'évolution de la situation géopolitique et du ralentissement économique, l'Afrique du Sud a connu pour la première fois un afflux important de migrants. C'est à ce moment-là, je pense, que les gens ont commencé à percevoir un changement dans le discours, dans la politique, dans la façon dont les migrants étaient perçus, en particulier les migrants d'origine africaine.

 

[00:35:56.580]

Malheureusement, j'ai l'impression que nous n'en tirons aucune leçon et que nous semblons toujours nous retrouver dans ces situations. Mais pour parler du système d'asile et de son fonctionnement, et dans mon travail quotidien avec les demandeurs d'asile et les réfugiés, ce que j'ai observé, en particulier au cours des 24 derniers mois, c'est une attention accrue portée à la limitation des droits des demandeurs d'asile et des réfugiés, au point de vouloir retirer le statut de réfugié à ceux qui l'ont obtenu depuis plus de 20 ans. Le système est donc très lent, très administratif. J'écoutais mes collègues qui me disaient que, de l'autre côté du monde, le défi consiste à déterminer l'influence de la technologie et de la collecte de données et ce que cela signifie pour les personnes en déplacement. Alors que je pense que dans le sud, ou plutôt dans les pays du Sud, les gens veulent que leurs données soient collectées, car cela leur donne de la visibilité, cela signifie qu'ils font partie du système, et qu'une fois que vous avez passé cette étape et qu'ils ont pris vos empreintes digitales, vos données biométriques, etc., si la police vous arrête, vous êtes quelqu'un. Si vous n'êtes personne, vous vous retrouvez à l'arrière d'un fourgon, vous êtes détenu pendant trois mois, puis vous êtes renvoyé à la frontière.

 

[00:37:10.120]

Je constate donc que, de l'autre côté, les gens veulent que leurs données soient collectées. Antonella parlait du consentement. S'agit-il d'un consentement fabriqué ou réel ? Je pense que dans ces circonstances, ils réfléchissent au compromis. Est-ce que je fais un compromis entre ma vie privée, l'accès à mes données, et qu'est-ce que cela m'apporte en échange ? Quel est le compromis dans ce cas ? Pour moi-même et pour mes enfants, notre capacité à subvenir à nos besoins, notre capacité à accéder à des services, notre capacité à nous intégrer dans la société. Et pour beaucoup de gens, c'est un compromis qu'ils acceptent. Encore une fois, s'agit-il d'un consentement réel ? Je ne sais pas comment nous pouvons répondre à cette question, mais à ce stade, c'est ainsi. Et pour parler de la commercialisation de certains de ces espaces, juste à titre d'exemple, le 10 octobre, ou un peu avant, le système de gestion des demandes d'asile a été hors service pendant plus d'un mois. C'est le système qui permet aux demandeurs d'asile et aux réfugiés de renouveler leur statut par e-mail. Vous envoyez littéralement un e-mail, et ils vous répondent pour vous dire si votre statut a été renouvelé ou non.

 

[00:38:26.190]

Ce système a donc été hors service pendant un mois, mais très peu d'informations ont été communiquées à ce sujet. Vous pouvez donc imaginer combien de milliers de personnes ont envoyé leur demande de renouvellement, mais celles-ci ont simplement été rejetées. Mais aucune information n'a été communiquée. Aucune explication n'a été donnée quant à la raison de cette panne du système. Cela a eu pour effet d'augmenter le nombre de détentions, car la police disait : « Votre permis a expiré, ou votre permis de demandeur d'asile a expiré. Vous êtes en situation irrégulière dans le pays. Et souvent, lorsque les migrants ne comprennent pas qu'ils ont des droits, en particulier en Afrique du Sud, pour nous motiver à expliquer pourquoi vous ne pouvez pas renouveler votre permis, c'est à cause du système. Cela ouvre généralement la porte à une conversation du type : « D'accord, alors discutons en privé et voyons ce que vous pouvez me donner. » Parce que le policier sait. Le policier sait que ce n'est pas de leur faute. Mais il sait aussi, comment dire ? La culture de la rue, où les gens comprennent que, d'accord, est-ce que je veux rentrer chez moi ce soir pour retrouver ma famille ou est-ce que je veux rester en prison par principe ?

 

[00:39:44.920]

Encore une fois, ces décisions sont-elles prises parce que les gens en ont la possibilité, ou parce qu'ils y sont contraints par la nécessité et la survie ? On éprouve beaucoup d'empathie pour les demandeurs d'asile et les réfugiés, en particulier ceux qui viennent de pays comme le Zimbabwe ou le Malawi, qui n'entrent pas dans la catégorie des réfugiés et des demandeurs d'asile parce qu'ils sont considérés comme des migrants économiques. Je pense que nous devons faire beaucoup d'efforts pour redéfinir les personnes qui ont besoin de sécurité et de protection. Mais ils font souvent partie des groupes les plus vulnérables, car même d'un point de vue législatif, ils bénéficient d'une protection minimale. Donc, encore une fois, en ce qui concerne l'asile en Afrique du Sud, l'État comprend ses responsabilités. L'État comprend les droits dont bénéficient tous les migrants dans le pays. Mais cela empêche-t-il les politiciens opportunistes d'exploiter cette situation ? Non. Cela empêche-t-il la montée en puissance des groupes anti-migrants qui se postent devant les hôpitaux et les cliniques et empêchent les migrants, légaux ou illégaux, d'y accéder ? Non. Cela empêche-t-il les appels lancés en cette nouvelle année à se poster devant les écoles publiques pour empêcher les enfants, les enfants migrants, d'accéder à l'école ? Non. Je pense donc que lorsque nous discutons de technologie, de migration et de politique législative, ce qui manque à cette conversation, c'est le sentiment sur le terrain, qu'il soit positif ou négatif, et la manière dont nous pouvons y répondre de manière proactive.

 

[00:41:28.260]

Car si nous continuons à faire l'autruche et à dire que « la loi dit ceci » ou « la loi dit cela », l'animosité envers les communautés migrantes continuera de croître, et très peu d'efforts seront faits en faveur de l'intégration ou de la cohésion sociale. Je sais que nous nous éloignons de la technologie, et je m'éloigne du sujet, mais ce sont là des questions fondamentales. Ce sont des situations où les gens sont pris entre le marteau et l'enclume, et où les décisions qu'ils doivent prendre sont une question de vie ou de mort et de survie. Et souvent, la technologie peut-elle être un catalyseur ? Je pense que oui. Je pense qu'il y a beaucoup de place pour utiliser la technologie, pour éduquer, pour autonomiser, en particulier en Afrique, car je pense que lorsque nos gouvernements en arriveront à utiliser la technologie dont Antonella et Judith ont parlé, je ne pense pas que cet avenir soit loin. Mais je pense qu'à ce stade, nous avons une petite fenêtre magique pour éduquer les gens sur ce qui pourrait arriver avant que cela ne se produise réellement. Les tribunaux les arrêteront-ils ? Je pense que cela ne sera pas facile pour eux. Surtout en Afrique du Sud. Les tribunaux se sont révélés être presque la dernière ligne de défense des droits de l'homme et des libertés fondamentales, contre l'abus opportuniste de certaines de ces libertés.

 

[00:42:49.010]

Mais cela va-t-il arriver ? Je pense que oui, car une fois encore, ils présenteront cela comme une mesure visant à protéger nos frontières, nos intérêts nationaux et nos ressources limitées. C'est aussi une façon de présenter les choses, et c'est ce que nous entendons souvent dans la rue : nous avons nos propres problèmes, et nous avons besoin que vous partiez pour que nous puissions mettre de l'ordre chez nous. Nous ne pouvons ignorer le fait que c'est là le sentiment général. Comment pouvons-nous sensibiliser à la fois les communautés d'accueil et les communautés de migrants ?

 

[00:43:21.180]

Oui, je suis tout à fait d'accord. Et j'ajouterais que c'est aussi l'occasion de montrer que ce qui se passe ailleurs n'est pas inévitable. On voit dans beaucoup de ces questions que les pays du Nord, comme les États-Unis envers l'Amérique centrale et l'Amérique du Sud, l'Union européenne envers les pays africains et d'autres pays dans d'autres régions, poussent pour des solutions similaires. Donc, la solution, c'est plus de détention. Nous allons financer la détention. Comme cette nouvelle, hier je crois, selon laquelle la Mauritanie a construit deux centres de détention pour immigrants. Mais cela ne suffit pas. Il n'est pas nécessaire qu'il en soit ainsi. Et je suis tout à fait d'accord avec vous pour dire qu'il ne reste peut-être pas beaucoup de temps, mais qu'il est possible d'engager le dialogue et d'utiliser la technologie pour éduquer les gens. Et oui, cela ne doit pas nécessairement se passer ainsi, il peut y avoir une autre façon de parler, d'avoir une conversation différente, d'avoir une autre façon de décider comment ces choses devraient fonctionner, en plaçant les gens au centre. Et oui, je pense aussi que l'un des inconvénients de la technologie, qui, comme vous l'avez dit, peut être très utile pour permettre aux gens de s'organiser eux-mêmes, et nous en voyons beaucoup d'exemples, c'est que ce n'est pas inévitable.

 

[00:44:46.080]

Vous n'avez pas besoin de technologie pour faire certaines choses. Vous n'avez pas besoin que la technologie fonctionne d'une certaine manière pour faire certaines choses.

 

[00:44:52.240]

Mais vous pouvez développer des technologies pour, par exemple, informer les gens, ce que vous avez essayé de faire. Malheureusement, le secteur privé semble avoir décidé de faire le contraire, en gardant les personnes qui ont besoin de protection de l'autre côté de la frontière, sans se soucier de ce qui va leur arriver. Et donc, comme vous l'avez mentionné précédemment, le fardeau du développement de ces technologies repose à nouveau sur les épaules d'avocats comme vous. Quels types de problèmes rencontrez-vous lorsque vous essayez de développer des technologies qui aident les personnes dans le besoin ?

 

[00:45:33.620]

Développer une technologie, c'est cher, oui, mais c'est la partie facile. Construire la plateforme, c'est la partie facile. Créer le contenu, c'est la partie facile. Le diffuser auprès des communautés, c'est là que nous nous retrouvons bloqués, parce que nous ne le reconnaissons pas. Je pense que nous avons érodé une grande partie de la confiance des communautés, en particulier des communautés de migrants, car la société civile a été perçue comme très extractive dans son approche, au point que de nombreuses communautés diront : « Nous savons que vous êtes là pour l'argent. Vous savez, nous savons qu'une fois que le financement sera épuisé, vous, vous, vous... Ce n'est pas que vous vous souciez de nous et que vous venez nous parler de ce chatbot qui va nous éduquer et nous autonomiser, c'est presque comme si vous vous demandiez ce que vous avez à y gagner et ce que nous en retirons. Je sais que cela semble terrible, mais je dis toujours que la confiance est une monnaie qui doit être gagnée. Et même lorsqu'on développe des technologies pour le bien, il faut comprendre et apprécier d'où viennent ces gens, où ils ont été déçus par le système, où ils ont été déçus par la société civile. Donc, même si nous nous réunissons pour construire quelque chose qui est censé contrer une grande partie de ces technologies négatives et nuisibles, nous devons également vérifier nos privilèges et comprendre que nous avons affaire à une communauté qui peut aussi nous regarder avec suspicion.

 

[00:46:59.000]

C'est donc là que résidait la difficulté. Développer la technologie, trouver la plateforme. Tout cela est relativement facile. Et ces discussions sont faciles. Mais la question est : la communauté va-t-elle l'utiliser ? Cela revient finalement à se demander : pour qui développez-vous cette technologie ?

 

[00:47:13.330]

Mais bien sûr, créer une énorme base de données. Créer une énorme base de données, non. Ce n'est pas si facile...

 

[00:47:15.330]

… ce n'est pas si facile. Il faut créer les ensembles de données, mettre en place les mesures de protection. Mais là encore, même avec tout cela, si vous disposez des bons experts, qui ont pour mission de défendre les droits humains et de faire le bien, nous pouvons y arriver. Je pense que, pour moi, tout revient toujours à la plateforme que vous construisez. Sera-t-elle utile au public visé, indépendamment des personnes présentes et de la manière dont elle est utilisée ? Car vous pouvez construire une plateforme magnifique, une plateforme parfaite. D'un point de vue système, oui, cela coûtera beaucoup d'argent, que beaucoup d'entre nous n'ont pas, mais une fois qu'elle sera construite, sera-t-elle simplement un autre projet inutile ? Et nous nous féliciterons en disant que nous avons construit un chatbot que les personnes en déplacement peuvent utiliser. Vous avez donné des exemples sur la façon dont la reconnaissance faciale a du mal à fonctionner avec les teints de peau plus foncés. Beaucoup de ces problèmes peuvent être résolus si vous réunissez les bonnes personnes pour discuter de qui développe la technologie. Mais une fois que ce sera fait, cela profitera-t-il à cette mère célibataire qui a emballé toute sa vie dans son sac à dos et qui porte son enfant à ses côtés ?

 

[00:48:31.130]

Sera-t-elle capable de tirer réellement profit de ce que nous pensons lui confier aujourd'hui ? Ou bien ira-t-elle plutôt voir les autorités et leur dira-t-elle : « Prenez toutes mes données, je vous donnerai toutes mes empreintes digitales, scannez tout ce que vous voulez. » Car pour elle, le compromis est alors que mes enfants et moi-même pouvons être en sécurité.

 

[00:48:52.970]

Nous avons beaucoup parlé des technologies censées empêcher les gens d'entrer. Mais ces mêmes technologies peuvent aussi être utilisées pour empêcher les gens de sortir. Nous avons vu beaucoup d'images horribles de Gaza ces derniers mois, et nous savons qu'Israël est un pays très, très technologique. Il est à la pointe des technologies de surveillance et de police prédictive. Il y a Hébron, qui est en quelque sorte un laboratoire pour les entreprises technologiques et l'État d'Israël, qui leur permet de voir dans quelle mesure ils peuvent profiler les gens, les intimider et envahir leur vie privée. Peu de gens savent que le Cachemire est également un exemple très frappant de la manière dont des entreprises privées, en coopération avec les États, installent des prisons et transforment des pays en prisons. J'ai ici avec moi Ankid, un chercheur indien qui se concentre sur cette question. Ankid, pourriez-vous m'expliquer quels sont les problèmes au Cachemire et comment cela affecte la population ?

 

[00:50:08.370]

Merci beaucoup, Florian. Je pense qu'en matière de technologie et d'altérisation numérique, les Cachemiriens sont le Laboratoire 2.0. Si la Palestine est 1.0, le Cachemire est 2.0, car ils utilisent la même technologie de reconnaissance faciale appelée Red Wolf pour suivre les mouvements des personnes qui vivent dans cette zone de conflit. Je vais donc d'abord parler des frontières. Quand on se rend à la frontière, celle-ci se trouve à seulement une centaine de mètres entre l'Inde et le Pakistan, et les personnes qui vivent à la frontière depuis plus de 75 ans, depuis que le pays a été divisé en deux parties égales. Ce qui s'est passé en 1947, lors de la partition, c'est que le Pakistan est né de l'Inde, puis en 1971, le Bangladesh est né du Pakistan. Ces trois frontières sont les plus vulnérables. Je m'y rends souvent en tant que chercheur. Je vois des gens. Les gens sont à une centaine de mètres les uns des autres. La femme vit de l'autre côté de la rivière, le mari vit ici, le frère vit ici et la sœur vit de l'autre côté de la rivière. Mais ils ne peuvent pas se parler depuis 36 ans.

 

[00:51:38.470]

C'est ainsi que la technologie divise le Cachemire, une zone de conflit. Et puis, si vous allez de l'autre côté de la frontière, à Uri, c'est un endroit très, très militarisé où chaque instant est surveillé. Vous n'avez même pas le droit d'emporter votre téléphone à cet endroit pour pouvoir voir ou au moins enregistrer ce qui s'y passe. Mais les personnes qui vivent littéralement dans ces garnisons sont censées partager des données, elles sont censées partager le nombre d'enfants qu'elles ont eu jusqu'à présent, combien, combien, combien d'argent elles gagnent, elles ont gagné. Pourquoi, pourquoi vont-elles rester ? Même si elles doivent sortir dans la rue pour, disons, aller chez le médecin. Mais le matin, elles ne peuvent pas partir de leur propre chef. C'est une communauté fermée. Ils doivent obtenir la permission de l'armée pour pouvoir sortir. Les gens disent que la technologie est un égalisateur numérique, mais je pense que c'est un diviseur numérique. C'est ce qui se passe sur le terrain au Cachemire, où le droit à l'alimentation dépend de votre âge : si vous avez 80 ans, le gouvernement vous donne 5 kg de riz subventionnés par mois.

 

[00:52:58.540]

Et si vos empreintes digitales ne correspondent pas dans la machine, on vous refuse la nourriture. Et ensuite, vous devez décider par vous-même ce que vous allez faire, avec, avec, avec, vous savez, avec vous, avec votre vie. Et puis, en ce qui concerne les travailleurs, disons qu'il existe un programme qui porte le nom du fondateur de l'Inde, le père de l'Inde, pardon, appelé Mahatma Gandhi. Il s'agit du programme national de garantie d'emploi rural Mahatma Gandhi. Et le gouvernement paie, le gouvernement vous donne cent jours de travail. Les travailleurs migrants s'inscrivent à ce programme. Et pour s'inscrire, il faut s'enregistrer sur un portail particulier. Et le Cachemire, vous savez, est la capitale mondiale des coupures d'Internet. Le nombre le plus élevé de coupures. À tout moment, dès qu'une manifestation a lieu, il y a une coupure. Et le gouvernement craint, d'accord, c'est comme un interrupteur. Vous voulez allumer l'interrupteur, la lumière s'allume, et vous voulez l'éteindre, la lumière s'éteint. Et quand cela se produit, vous êtes privé de votre droit au travail. Et quand vous ne pouvez pas vous inscrire, vous ne pouvez pas travailler. Et quand vous ne pouvez pas travailler, vous ne pouvez pas toucher la maigre somme que le gouvernement verse pour cela. Et bien sûr, lorsque ces travailleurs migrants s'inscrivent pour le travail fourni par le gouvernement, ils doivent s'inscrire avec une carte appelée carte Aadhar.

 

[00:54:31.510]

C'est, c'est, c'est une carte obligatoire. C'est comme un passeport. Sans elle, rien ne fonctionne. Même la Cour suprême, la plus haute instance judiciaire du pays, affirme qu'elle n'est pas obligatoire, mais dans les faits, rien ne fonctionne sans elle. Si vous n'avez pas de carte Aadhaar, vous ne pouvez pas vous enregistrer. Et si vous ne pouvez pas vous enregistrer, vous ne pouvez pas trouver de travail. Et comment obtenir cette carte Aadhaar ? Vous obtenez une carte Aadhaar si vous vivez, si vous êtes un citoyen permanent d'un endroit particulier et si vous n'êtes pas en mesure de prouver que vous vivez à cet endroit depuis 15 ans, alors on vous refuse la carte Aadhaar ou le certificat de domicile.

 

[00:55:11.550]

Judith et tout le monde ici ont également souligné que la technologie n'a pas été à la hauteur des espoirs et des discours trompeurs que nous avons entendus au sujet du solutionnisme technologique. Mais dans quelle mesure, et je pense que c'est là que le Cachemire est également très particulier. Dans quelle mesure la technologie a-t-elle pénétré davantage la vie des personnes éloignées des frontières ?

 

[00:55:36.480]

Je me rends donc souvent au Cachemire, dans la capitale, Srinagar. C'est là que vous atterrissez lorsque vous prenez l'avion depuis Delhi. Une fois sorti de l'aéroport, vous vous rendez compte que c'est l'espace le plus militarisé pour 8 millions de personnes. Il y a 1 million de soldats. Et comme si cela ne suffisait pas, ils ont recours à des espions humains qui surveillent vos moindres faits et gestes ou vous soupçonnent sans raison. Être un simple Cachemiri célibataire marchant dans la rue ne suffisait pas. Ils ont désormais la technologie. Sous ce prétexte, nous devons surveiller la circulation dans un endroit très petit comme le Cachemire. Ils ont mis en place un système appelé « système intégré de gestion du trafic ». Il s'agit de caméras B2Z qui surveillent à 180 degrés. Partout où cet instrument ou cet appareil est installé. Il est installé.

 

[00:56:42.460]

C'est vrai.

 

[00:56:42.780]

C'est désormais obligatoire. Chaque magasin, chaque école, chaque établissement, par exemple les usines de confection, les bâtiments privés, sont désormais tenus d'installer ces caméras. Et personne n'ose poser la question : pourquoi ? Ils disent simplement qu'il faut mettre fin aux vols. Les voleurs rôdent ici. Ils pillent les gens. Mais ce n'est pas la vérité. Aucune donnée ne le suggère. Ils surveillent les personnes qui vivent dans cet endroit hautement surveillé et hautement militarisé. Et que faisons-nous, que font-ils ? Et que font-ils de ces données en tant que militants RTI ? Je veux dire, il existe une loi appelée « Right to Information Act » (loi sur le droit à l'information). C'est une loi qui a été adoptée en 2009 par le Parlement indien. Conformément à cette loi, vous pouvez poser des questions au gouvernement. Il existe quelques exceptions. Je veux dire, vous ne pouvez pas parler de défense, vous ne pouvez pas parler de communications, vous ne pouvez pas parler de droits de l'homme. La sécurité nationale est utilisée comme raison. Oui, oui. Donc, ils disent, oui, sous le couvert de cela. Donc, vous ne pouvez pas être quelqu'un qui remet en question les intérêts nationaux du gouvernement. Et si vous posez une question maintenant, cela a été réduit à une loi inutile.

 

[00:58:11.490]

Parce que si vous êtes un militant RTI, si vous soumettez votre demande RTI, votre demande d'accès à l'information, on vous pose beaucoup de questions gênantes. Pas la commission, mais la police, les forces de l'ordre. J'ai rencontré l'un des militants RTI. Il m'a dit : « Je voulais cette information. » Et puis l'agent local, le niveau le plus bas de la gouvernance commence par les villages. Cette personne a menacé le militant RTI et lui a demandé : « Pourquoi, pourquoi, pourquoi avez-vous besoin de cette information ? » Et comme si cela ne suffisait pas, la police est venue et l'a menacé. « Si vous ne retirez pas votre demande, nous ne serons pas responsables de votre vie. »

 

[00:58:57.200]

Essayer d'exercer vos droits conduit en fait à des menaces, des menaces.

 

[00:59:00.960]

Et puis cette personne a dû quitter le village et vit désormais en ville, et elle ne veut pas y retourner parce que cet endroit lui semble très, très intimidant. En tant que journaliste, on se sent impuissant. En tant que militant, on se sent impuissant, et on n'a alors d'autre choix que de se soumettre. Et si on pose des questions, si on remet les choses en question, on est considéré comme un dissident. On est considéré comme un fauteur de troubles. Et pour les fauteurs de troubles, la seule option est la prison. On est mis derrière les barreaux et on y pourrit.

 

[00:59:36.310]

Vous parliez des militants, et nous avons souvent vu cela se produire en Europe, aux États-Unis et, j'en suis sûr, partout ailleurs, où les militants, les journalistes et les chercheurs sont pris pour cible lorsqu'ils abordent ces questions très délicates. Nous le constatons également dans les mouvements écologistes actuellement. Mais qu'en est-il des personnes qui ne provoquent pas, qui ne posent pas de questions ? Ne sont-elles pas affectées par la technologie ?

 

[01:00:02.240]

Oui, quand ces personnes ont l'impression d'être surveillées, contrôlées, même sur les réseaux sociaux, elles trouvent bien sûr que ce n'est pas normal, que c'est anormal. Et puis elles remarquent, quand elles consultent un médecin, un psychologue ou un psychiatre, que leur comportement a changé, que cette personne est anxieuse. Je veux dire, il ne s'est rien passé. Mais le simple fait que l'État vous surveille vous met mal à l'aise. On observe beaucoup de sautes d'humeur chez les gens. On voit des gens crier dans la rue, klaxonner inutilement. Je vais parler aux gens au Cachemire, ils se sentent impuissants et réduits au silence. Ils sont réduits au silence parce qu'ils ont l'impression de ne pas avoir voix au chapitre. Les grandes entreprises technologiques les ont laissés tomber. Et ils le ressentent. D'après le rapport de Médecins Sans Frontières, un Cachemiri sur deux qui marche dans la rue souffre d'un syndrome de stress post-traumatique. Ce n'est pas normal. C'est quelque chose de très anormal. Anormal dans un endroit anormal où la surveillance humaine et technologique est omniprésente. Et comme les Cachemiris sont silencieux, ce que je ressens dans la rue, c'est que pour eux, le silence est la protestation la plus forte.

 

[01:01:48.720]

Je pense que ce qui est vraiment important cette année, lorsque nous discutons de technologie, c'est d'intégrer l'expérience humaine, car c'est la seule chose qui nous guide réellement vers la conception de meilleures technologies, de technologies plus réactives, mais aussi de technologies qui fonctionnent réellement, car nous savons que bon nombre des technologies déjà déployées ne fonctionnent pas. Judith a déjà dit que la reconnaissance faciale ne fonctionne souvent pas avec les personnes au teint plus foncé. Nous savons également qu'un algorithme ou une IA ne prend pas de décisions. Il effectue essentiellement une approximation basée sur des statistiques. Et si nous examinons les décisions judiciaires prises dans l'Union européenne, en Grèce par exemple, où des migrants sont arrêtés, des réfugiés sont arrêtés sur la plage et sont immédiatement accusés de traite d'êtres humains. L'IA apprendra tout cela. Elle jugera sévèrement nos propres échecs dans la mise en œuvre des lois censées nous protéger tous. Et je pense que les gens sous-estiment à quel point la technologie finira par les priver de leurs droits. Mais pour conclure, je suis bien conscient qu'aucun d'entre vous ne sera en mesure d'apporter une solution globale à tout cela, malheureusement.

 

[01:03:09.940]

Mais ce que j'aimerais faire, c'est simplement nous donner une impulsion rapide. Pas une longue impulsion, mais une impulsion rapide. De votre point de vue, d'après votre expérience, quelles sont vos exigences, quels sont vos espoirs quant à la mesure dans laquelle cette situation peut être contrôlée, dans quelle mesure pouvons-nous reprendre le contrôle ? Judith ? Peut-être, peut-être vous.

 

[01:03:32.580]

Je pense davantage en termes de facteur humain dans tout cela, vous voyez, et je ne comprends vraiment pas comment, en tant qu'humanité, nous pouvons disposer d'un tel niveau de technologie et ne pas parvenir à une répartition plus juste des richesses. Comment pouvons-nous avoir quelque chose qui me fait penser aux rois d'il y a cent ans, qui n'avaient pas accès aux informations dont nous disposons aujourd'hui dans un smartphone ? Vous savez, c'est une forme de richesse, mais elle est utilisée, elle est transformée en arme pour creuser encore davantage les écarts en matière d'accès, de dignité, vous voyez. Et je n'arrive pas à comprendre cela, je n'y arrive pas. Il y a suffisamment de ressources pour que tout le monde puisse mener une vie digne.

 

[01:04:27.020]

Alors, quelle est votre exigence compte tenu de votre position ?

 

[01:04:29.620]

Je ne pense pas avoir d'exigences. Je voudrais revenir sur ce que Grace disait lorsque vous parliez du sentiment, et vous avez dit : « Mais je m'éloigne du sujet. » Je ne pense pas que vous vous éloignez du sujet. Je pense que c'est un sujet central dans le débat sur la technologie auquel nous devrions accorder plus d'attention. Cela devrait être mis en avant. Et parce que la technologie n'existe pas dans le vide, elle s'inscrit dans un contexte. Et la manière dont elle est mise en œuvre est étroitement liée au sentiment qui règne dans la rue, au sentiment qui règne au sein du gouvernement, dans les institutions, vous voyez. Je pense donc que nous devrions peut-être y prêter un peu plus attention. Et peut-être que cela revient à changer le discours, ce qui semble déjà un peu cliché et galvaudé, mais peut-être y a-t-il autre chose que nous pouvons faire concernant le sentiment. Peut-être potentialiser nos liens les uns avec les autres, peut-être créer davantage d'espaces comme celui-ci où nous pouvons nous asseoir avec des parcours différents, des opinions différentes et des propositions de solutions différentes. Et ce que nous faisons ici, en nous rencontrant en personne, c'est nourrir ce lien, ce lien humain.

 

[01:05:53.190]

Je ne pense pas que ce soit un cliché d'en parler, car je pense que nous avons vu à quel point les récits sont puissants dans un contexte négatif ici, à quelle vitesse, je viens d'Allemagne, à quelle vitesse les gens qui, en 2015, applaudissaient les réfugiés arrivant dans les gares se sont retournés contre les migrants, et à quel point cela déstabilise le pays. Je pense que c'est quelque chose que nous voyons très fortement en Europe en ce moment, la façon dont l'extrême droite prend le dessus. Et aux États-Unis, nous avons des personnes au pouvoir qui sympathisent avec des idées telles que les monarchies de PDG, qui luttent activement contre la Constitution. Et c'est quelque chose de nouveau et qui est très exacerbé par la technologie. Antonella, en tant que chercheuse, quelles sont vos revendications ? Que souhaiteriez-vous ? Si vous pouviez changer certains programmes et certaines pratiques dès maintenant, quelle serait votre première tentative ? Que souhaiteriez-vous changer immédiatement ?

 

[01:07:01.680]

Eh bien, j'aimerais travailler sur autre chose pour changer ? Non, je veux dire, je pense qu'il y a là encore un niveau de discussion qui ressemble à celui que Judy vient d'expliquer. J'ai l'impression qu'une grande partie de cette discussion a été imposée artificiellement par une réflexion à très court terme. Et même dans de nombreux pays européens, la migration n'est pas considérée comme l'un des principaux problèmes, mais elle a été en quelque sorte présentée par les politiciens comme le problème, comme le problème qui vous empêche d'avoir un meilleur accès aux soins de santé ou à la protection sociale. Nous le savons, surtout que cela fait une dizaine d'années que nous sommes dans cette situation. C'est quelque chose que j'entends sans cesse depuis dix ans. Je pense donc qu'il faut changer le discours. Il faut comprendre que la technologie n'est pas une question de technologie. La technologie, c'est ce que les gens essaient d'en faire. D'une certaine manière, je pense que du point de vue d'un chercheur, il s'agit simplement d'essayer de répondre un peu à votre question, mais pas en tant qu'exigence envers les gouvernements, envers les chercheurs, les journalistes et les personnes qui enquêtent sur ces questions.

 

[01:08:21.870]

Je pense que nous devrions mieux faire pour ne pas utiliser la technologie comme un acteur. J'entends beaucoup parler ces derniers temps de la responsabilité de l'IA, mais je pense que cela obscurcit la question de savoir qui doit être responsable. Ce n'est pas l'IA qui doit être responsable, ce sont les acteurs puissants. Qui sont ces personnes qui devraient être responsables ? L'IA n'est pas quelque chose à qui je peux demander de rendre des comptes pour ce qu'elle fait. Je pense donc qu'il faut également changer le langage que nous utilisons, le cadre dans lequel nous nous inscrivons, car nous avons parfois tendance à répéter les mêmes choses parce que cela fonctionne, parce que c'est ce que nous avons toujours fait, parce que les financements que nous obtenons utilisent ce type de langage, ce type d'étiquette. Cela facilite l'obtention de subventions, de soutiens, d'audience. Je pense donc que nous devons réfléchir de manière plus critique. Et puis, bien sûr, vous savez, en ce qui concerne les gouvernements, je pense que nous avons déjà des lois qui ne sont pas respectées. Donc, le simple fait de les appliquer réellement sera déjà une chose. Mais là encore, comme pour le caractère inévitable de ce qui se passe.

 

[01:09:31.780]

Ce n'est pas comme quand on entend dire que la technologie est là pour rester, c'est un cliché tellement facile à utiliser. Oui. Je ne dis pas qu'il faut détruire les machines, mais nous pouvons utiliser la technologie différemment. Nous avons vu, j'ai vu dans mes recherches les plus récentes, beaucoup de travaux menés par des communautés, par des personnes. Il ne devrait pas être nécessaire de déployer autant d'efforts pour fournir des informations que le gouvernement ne vous donne pas. La technologie devrait être conçue de manière à prendre cela en compte et à en tirer parti. Quels sont les besoins ? Comment répondons-nous à ces besoins ? Ce n'est pas le cas actuellement, mais je pense que c'est l'une des choses que nous pouvons exiger, et nous pouvons l'exiger, non seulement des politiciens, mais aussi à de nombreux autres niveaux. Il existe des exemples plus réussis et plus significatifs, peut-être au niveau municipal ou à un niveau plus local, qui méritent d'être explorés davantage. Il ne s'agit pas seulement de dénoncer l'exploitation des gens par les grands gouvernements et les grandes entreprises technologiques, mais aussi de mettre en avant des exemples de conception et de collaboration significatives. Il existe des initiatives menées par des personnes et par des communautés.

 

[01:10:47.340]

Grace, depuis ton point de vue sud-africain et kenyan, en observant également ce qui se passe en Europe et comment la technologie est déployée, qu'en penses-tu ?

 

[01:10:58.620]

Je dirais que tout dépend des gens. Je pense qu'en tant que société civile, nous devons comprendre que nous ne sommes pas impuissants face à cette situation. Nous avons beaucoup parlé de changer les discours. Judith, vous disiez que la technologie s'inscrit dans un contexte. Donc, si nous changeons les discours sur le terrain et que nous travaillons dans ce sens, alors peut-être que nous ne serons pas capables... les politiciens ne seront pas capables de manipuler le sentiment anti-migrants et de l'utiliser pour rallier leurs électeurs et nous détourner des véritables problèmes socio-économiques. C'est peut-être aussi fondamental que cela, et c'est là que nous devons nous arrêter. Je comprends, chacun a son mandat et fait ce qu'il doit faire. Mais peut-être que si nous ne travaillions pas en vase clos, peut-être que si nous travaillions réellement et que nous présentions un front uni à la fois à l'État et aux communautés, alors peut-être que ce changement pourrait réellement commencer à se produire. Et dans ce contexte, la technologie pourrait alors évoluer vers une approche plus progressiste, participative et fondée sur les droits humains. Mais pour l'instant, nous ne faisons que du bruit parce que tout le monde essaie de parler en même temps.

 

[01:12:09.510]

Ankid. Termine le podcast.

 

[01:12:13.830]

Oui. Merci beaucoup pour cet honneur. Je travaille à la radio depuis six ou sept ans maintenant. Je crois. Oui, vous avez raison. Les drones peuvent attendre, mais pas les programmes sociaux. Vous êtes la plus grande démocratie du monde, mais vous êtes également en tête du classement mondial de la faim. Vous investissez 9,6 milliards de roupies dans des caméras de reconnaissance faciale, ou vous disposez de 600 000 caméras pour une population, dans une ville qui n'en a pas réellement besoin. Vous pouvez facilement détourner cet argent. Vous pouvez dépenser cet argent et verser des pensions aux personnes handicapées, aux migrants, aux personnes âgées qui en ont le plus besoin. Je pense que les affaires peuvent attendre. L'empathie ne peut pas attendre et je pense que nous devons soutenir la campagne « Ban the Scan » d'Amnesty International et dire au gouvernement que seulement 2 % de vos résultats de reconnaissance faciale sont considérés comme exacts et que 90 %, 98 % d'entre eux sont inexacts. Et ce que vous faites, c'est cibler. Vous dépensez des milliards de roupies pour ces caméras de reconnaissance faciale uniquement dans le but de cibler les minorités, uniquement dans le but de cibler les musulmans. Et vous les qualifiez de terroristes. Vous les qualifiez de fauteurs de troubles et d'antinationaux.

 

[01:13:59.140]

Oui, anti-nationaux, antisociaux, peu importe comment ils les appellent. Mais la vérité, c'est qu'il faut l'être. Il faut au moins essayer. Si vous ne pouvez pas vous mettre à leur place, ayez au moins un peu d'empathie. Et puis, si vous élaborez ces politiques dans des salles climatisées, imaginez-vous au moins à la frontière ou dans la ville, soyez prévenant et gardez à l'esprit que ce monde fonctionne selon le principe du karma. On récolte ce que l'on sème. Faites preuve d'empathie, s'il vous plaît.

 

[01:14:44.710]

Oui. Soyez humain. Soyez gentil. Soyez conscient. Informez-vous. Levez-vous, prenez les choses en main. Je pense que c'est ce que je retiens de ce podcast et de toute cette rencontre, en fait. Et j'apprécie vraiment que vous ayez pris le temps malgré votre emploi du temps très chargé, car nous vous retenons. Nous vous occupons beaucoup. Et nous avons notre prochain rendez-vous, en fait, dans une demi-heure. Mais merci beaucoup d'avoir partagé vos idées, vos expériences et... Eh bien, passez un bon rassemblement.

[01:15:17.680]

Merci.

[01:15:19.200]

Merci.