Pour protger ses htes, l’application de location court terme Airbnb utilise maintenant un outil aliment par l’IA qui prend en compte la “personnalit” des invits en ligne lorsqu’ils rservent un logement, selon le site Web de nouvelles scientifiques et technologiques Futurism. Selon les documents de brevet examins par le quotidien Evening Standard, Airbnb possde les droits d’un logiciel conu pour scanner la prsence en ligne des gens afin de prdire s’ils sont dignes de confiance. L’outil prend en compte mme le casier judiciaire dans son valuation de la “fiabilit et la compatibilit” des utilisateurs Web dans le but de prvoir l’aptitude louer une proprit.

Selon le brevet, Airbnb pouvait dployer son logiciel pour scanner les sites, y compris les posts sur les mdias sociaux, la recherche de caractristiques telles que “la conscience et l’ouverture” par rapport aux vrifications habituelles de crdit et d’identit et ce qu’il dcrit comme des “bases de donnes tierces scurises”. Des caractristiques telles que “nvrose et implication dans des crimes” et “narcissisme, machiavlisme ou psychopathie” sont “perus comme indignes de confiance”.

Si vous avez t refus de rserver une location Airbnb, c’est peut-tre parce que l’intelligence artificielle de la plateforme communautaire a dtermin que vous tes un psychopathe. La technologie de vrification des antcdents a t rvle dans un brevet dlivr par l’Office europen des brevets et publi aux tats-Unis l’anne dernire, selon Evening Standard. L’outil de vrification est l’uvre de Trooly, une startup quAirbnb a acquise en 2017, aprs que la socit base en Californie ait aid la plateforme de limmobilier viter les problmes depuis 2015, en filtrant les annonces mensongres.

valuation des invits par lIA pour dterminer des clients aux caractres “indignes de confiance”

Selon le quotidien londonien, la technologie dAirbnb utilise l’intelligence artificielle pour reprer les personnes “associes” de faux profils de rseau social ou celles qui ont donn de faux dtails. Le brevet vu par le quotidien suggre galement que les utilisateurs sont mal nots si les mots cls, les images ou les vidos qui leur sont associs sont lis la drogue ou l’alcool, des sites ou des organisations haineuses ou au travail du sexe. Les personnes impliques dans la pornographie ou qui ont crit du contenu en ligne avec un langage ngatif seront galement notes la baisse.

Selon un article de quartz qui a rapport lachat de Trooly en juin 2017, la startup de vrification des antcdents utilise des informations provenant du Web public, du Web noir, des mdias sociaux autoriss et de sa propre agrgation de dossiers pour valuer les rfrences des individus et des entreprises. Selon larticle, le site Web de Trooly affirmait lpoque que les prdictions comparativement fiables sont exemptes de biais que les vrifications d’antcdents, les cotes de crdit et les outils de gestion du risque de la vieille cole .

Airbnb na pas rpondu une demande de commentaires dEvening Standard concernant la mesure dans laquelle le site Web utilise l’outil de Trooly. Cependant, son site Web indique l’utilisation que la plateforme fait de son IA pour valuer les clients potentiels : Chaque rservation d’Airbnb est note pour le risque avant qu’elle ne soit confirme. Nous utilisons l’analyse prdictive et l’apprentissage machine pour valuer instantanment des centaines de signaux qui nous aident reprer et enquter sur les activits suspectes avant qu’elles ne se produisent .

L’apprentissage machine analyse les informations trouves sur le demandeur de logement, y compris, par exemple, un article li un crime, et peut “pondrer ” la gravit des infractions. Ses sources d’information sont ensuite prises en compte pour former un “diagramme de la personne”, selon le brevet. Selon le quotidien, ces donnes combines permettent danalyser la faon dont le client agit envers les autres hors ligne. L’apprentissage machine calcule ensuite la “compatibilit” de l’hte et du client.

LIA dAirbnb arrive alors que la socit fait face depuis des annes aux problmes des clients indlicats

Selon Business Insider, l’application de location court terme a tent d’assurer la scurit des invits et des htes la suite de plusieurs crises trs mdiatises l’anne dernire. La socit aurait interdit les ftes dans ses listes aprs que cinq personnes aient t tues en octobre lors d’une fusillade un Airbnb en Californie, et d’autres htes ont accus les invits d’avoir subi des millions de dollars de dommages. Airbnb est galement aux prises avec des htes qui pratiquent des escroqueries long terme par le biais de l’application, en se faisant passer pour des propritaires qui affichent des listes frauduleuses sur le site. Donc si l’outil peut liminer les fauteurs de troubles potentiels et les faux htes, il est facile de voir pourquoi la socit serait dsireuse de le mettre en uvre.

Cependant, selon Futurism, il est difficile de dire si une IA peut rellement prdire si une personne est un psychopathe ou du moins quelqu’un quAirbnb ne voudrait pas voir chez les htes uniquement partir des informations en ligne la concernant.

Dans une dclaration Business Insider, un porte-parole d’Airbnb a confirm qu’elle est propritaire du brevet, mais qu’elle n’applique pas actuellement toutes les mthodes de filtrage du logiciel telles que dcrites dans le dpt de brevet. Il a ajout que la socit se limite aux vrifications des antcdents des utilisateurs. Comme pour toute autre entreprise, nous dposons un certain nombre de brevets, allant de la recherche de listes l’automatisation de la disponibilit des rservations, et cela ne signifie pas ncessairement que nous mettons en uvre tout ou partie de ce qu’ils contiennent , a dclar le porte-parole.

Les applications de lIA se sont multiplies ces dernires annes. Des chercheurs de l’Universit de Cambridge ont publi en dcembre dernier une proposition dans la revue Ethics and Information Technology qui exploite les techniques de cyberscurit base sur lIA pour donner le contrle ceux qui sont cibls par les discours haineux, sans recourir la censure. En effet, ces chercheurs ne salignent pas sur le principe de dtection automatique du discours haineux, qui est selon eux difficile, parce que les dfinitions de ces contenus varient en fonction de la nation. Daprs eux, le discours haineux doit tre signal par ceux qui y sont exposs, aprs que le prjudice psychologique voulu ait t inflig.

Les experts de Cambridge Language et Machine Learning utilisent, par consquent, des bases de donnes de menaces et d’insultes violentes pour crer des algorithmes qui peuvent fournir un score pour la probabilit d’un message en ligne contenant des formes de discours haineux. Et mesure que ces algorithmes s’affinent, les discours de haine potentiels pourraient tre identifis et mis en quarantaine . Les utilisateurs recevraient une alerte d’avertissement avec un Hainomtre (baromtre indiquant le score de gravit du discours haineux), le nom de l’expditeur et une option pour afficher le contenu ou le supprimer sans l’afficher.

Selon des commentateurs du sujet concernant lIA dAirbnb, la technologie de la plateforme de location ne pourra fonctionner quavec les utilisateurs qui utilisent leur vrai nom sur Internet ou qui utilisent la mme adresse e-mail pour leur compte de mdia social que pour leurs posts de rservations AirBNB.

Sources : Futurism, Documents de brevet

Et vous ?

Que pensez-vous de lIA dAirbnb ?

Loutil dIA dAirbnb scanne Internet la recherche d’indices pour carter les clients non fiables. Ny aurait-il pas de risques de biais lis cette technologie, selon vous ?

Lire aussi

Des chercheurs font appel un outil bas sur l’IA pour mettre en quarantaine le discours haineux, afin d’viter de passer par la censure et donner l’utilisateur plus de contrle

L’IA identifie des caractristiques auparavant inconnues associes la rcurrence du cancer, selon un nouveau rapport

Ubisoft a construit une nouvelle IA pour apprendre une voiture se conduire dans un jeu de course, en utilisant l’apprentissage par renforcement

IA : des scientifiques du MIT conoivent un algorithme capable d’interprter des images, pour rpondre des questions sur leur contenu

Airbnb prtend que son IA peut prdire si les clients sont des psychopathes, aprs avoir scann leur vie en ligne et regroup des informations sur eux