Faire de la médiation avec ChatGPT
Le Laboratoire de cyberjustice travaille à la mise en place dâun robot conversationnel qui soutiendrait les intervenants de la médiation et ses usagers.
Vous vous séparez. Votre partenaire veut obtenir la garde des enfants. Comme vous. Vous consultez alors un médiateur pour régler cette situation à lâamiable. Imaginez si votre médiateur était accompagné dâun robot conversationnel pour lâaider dans son travail.
Câest un des projets de recherche du Laboratoire de cyberjustice de lâUniversité de Montréal, dirigé par le professeur de droit Karim Benyekhlef, sur lequel travaillent des doctorants en intelligence artificielle, notamment Hannes Westermann, et des professionnels en informatique. Cet été, quelques dizaines dâétudiants et étudiantes en droit vont tester si les propositions de médiation réalisées par un robot conversationnel ont une utilité et un sens.
Un nouvel outil de médiation avec un agent conversationnel
Le robot conversationnel, conceptualisé et développé par Hannes Westermann à la faveur de ses recherches pour le Laboratoire de cyberjustice, permettra aux différents acteurs dâun conflit de reformuler leurs propositions sâils le souhaitent.
«Lâagent virtuel permettra dâexprimer votre position dans le cadre dâune médiation. Il vous offrira ensuite la possibilité de reformuler votre proposition dâune certaine manière. Vous aurez alors le choix dâaccepter ou de demander une nouvelle reformulation», explique Me Valentin Callipel, chargé de mission au Laboratoire de cyberjustice.
Lâagent virtuel suggérera également différentes options de résolution de conflit.
Tester les résultats cet été
Pour la mise en place de lâagent conversationnel, lâéquipe travaille avec un grand modèle linguistique, un modèle de langage comprenant plus dâun milliard de paramètres. «Lâenjeu nâest pas tellement dâutiliser ce vaste corpus que de tester le résultat et de réduire au maximum les affabulations», précise Me Callipel. Le robot conversationnel peut effectivement soumettre des réponses qui semblent vraies et logiques, mais qui ne le sont pas.
Pour encadrer les réponses qui seront données, différents questionnaires ont été élaborés au Laboratoire de cyberjustice. Cet été, une cohorte étudiante entrera plusieurs réponses dans le système pour explorer les limites du robot. «On essaie dâapprendre comment contrôler le résultat qui va nous être donné: on veut obliger lâagent conversationnel à produire un résultat par rapport à un domaine particulier en lui spécifiant ce quâil peut faire», ajoute-t-il.
Lâéquipe va également comparer différents générateurs de textes pour observer lequel fournit les réponses les plus justes, comme le plus connu dâentre eux, ChatGPT, ou LLaMA, de Meta.
Des discussions surveillées
Lâéquipe étudiera ensuite la possibilité que le robot puisse surveiller les discussions et possiblement intervenir auprès du médiateur si son action peut être justifiée, notamment grâce à des algorithmes dâanalyses de sentiments.
«Un médiateur peut avoir plusieurs dizaines de médiations à surveiller simultanément. Comment peut-il alors réussir à maintenir une surveillance de ces différents échanges? On pourrait imaginer que, si une des discussions devenait houleuse, un agent virtuel interviendrait pour prévenir le médiateur», mentionne Me Callipel.
Est-ce à dire que, demain, nous pourrions avoir une médiation menée par un robot?
«Pas du tout! nous rassure Me Callipel. On ne vise pas la déshumanisation de lâexpérience de justice. à court terme, on nâimagine pas la possibilité de placer sous lâautorité dâun algorithme une quelconque activité juridique. Il faut forcément quâune personne prenne la responsabilité professionnelle dâagir comme médiateur et peut-être que, dans le futur, il sera aidé par un algorithme.»
https://nouvelles.umontreal.ca/article/2023/07/12/faire-de-la-mediation-avec-chatgpt/
This content has been updated on 16 July 2023 at 14 h 58 min.