Dans ce projet, nous traitons la problématique liée à l'agriculture intelligente. En effet, l’agriculture intelligente fait principalement référence à l’exploitation des nouvelles technologies dans l’agriculture notamment l’IoT, le machine Learning, la robotique, l’IA, la data sciences etc. En effet, en déployant des capteurs et des appareils IoT pour collecter diverses données, les agriculteurs peuvent prendre des décisions éclairées pour améliorer tous les aspects de leurs opérations. A terme, nous cherchons à rendre beaucoup plus automatiques les pratiques agricoles au Sénégal en proposant des outils et technologies innovantes adaptés aux exploitations. Par conséquent, nous y traitons l'ensemble des questions relatives à l’agriculture intelligente, allant de la collecte des données via les outils et technologies de l’IoT jusqu'à la prise de décisions en passant par le prétraitement des données, l’analyse et la visualisation via des méthodes de machine learning et de l’intelligence artificielle.
Resultats :
Dans ce projet, nous nous intéressons à la problématique liée à la modération automatique des commentaires toxiques (insultes, violence et racisme) au Sénégal. En effet, modérer les commentaires sur le web revient à évaluer et à surveiller les commentaires des internautes sur les plateformes en ligne afin de trouver un juste équilibre entre la protection contre les abus et la liberté d'expression des utilisateurs. C’est un mécanisme de gouvernance qui structure la participation à une communauté en ligne pour faciliter la coopération et prévenir les abus. Il permet de déterminer quelles publications et quels utilisateurs sont autorisés à rester en ligne, et lesquels sont supprimés ou suspendus, ainsi que la manière dont les publications autorisées sont affichées et quelles actions accompagnent les suppressions de contenu. Il s’agit donc de contrôler le contenu des messages diffusés afin d’éviter la propagation de contenus non désirables, notamment des commentaires toxiques. En effet, les commentaires toxiques en ligne désignent des messages marqués par des comportements négatifs, hostiles ou nuisibles envers des individus, des groupes ou des opinions. Ils ne se limitent pas aux attaques directes, mais englobent aussi des actions visant à susciter des réactions émotionnelles intenses ou à exacerber les tensions par des propos provocateurs. Ce type de contenu crée un climat néfaste, pouvant avoir des répercussions psychologiques graves sur les victimes, telles que le stress, l’anxiété ou même la dépression. Par ailleurs, la toxicité en ligne altère la qualité des discussions et perturbe l’équilibre des communautés, compliquant ainsi le partage d’idées constructives et enrichissantes. La toxicité d’un commentaire est donc définie comme tout propos grossier, irrespectueux ou susceptible de pousser quelqu'un à quitter une discussion, à passer à l’acte de violence envers une personne ou une communauté. Face à cette situation délétère, deux niveaux de mesures sont à signaler. Les commentaires toxiques peuvent se manifester sous différentes formes (insultes, harcèlements, diffamations, discours haineux, etc.). Mais la vélocité des discussions et le volume de données mises en jeu font que les plateformes sont dans l’incapacité de veiller correctement à la bonne modération des contenus produits par les internautes. C’est d'ailleurs pourquoi elles font recours à des modérateurs humains, par recrutement ou par délégation de service. Ainsi, nous étudions comment l’usage du Machine Learning peut aider à améliorer la détection et la modération des propos toxiques sur internet. En d’autres termes, les algorithmes de Machine Learning peuvent-ils identifier, détecter et classer la toxicité des commentaires sur internet ? L’objectif principal visé ici est donc d’explorer les multiples aspects liés à la modération des propos toxiques par machine learning sur internet, en examinant à la fois les bases théoriques, les avancées technologiques et les applications déjà expérimentées. En d’autres termes, l’objectif est d’utiliser des techniques de machine learning pour examiner le fonctionnement de la modération des propos toxiques dans les commentaires et évaluer son efficacité sur les sites internet au Sénégal.
Ce Projet de recherche traite les questions relatives à l'automatisation de la collecte et l'agrégation de données mais aussi de la vérification des faits (fact-checking) dans le contexte web journalistique En effet, Ce projet de recherche vise à analyser dans quelle mesure le fact-checking, en tant que genre journalistique est automatisable. En d’autres termes, à proposer aux fact-checkers un ensemble d’outils d’aide à la vérification des faits. Ces outils permettront entre autre de faciliter collecte et l’analyse des données web, la vérification des informations mais aussi la visualisation des résultats. Ces transformations se situent dans notre volonté de proposer une nouvelle façon d’exercer le métier de journalisme par l'intégration des innovations technologiques actuelles. L’intérêt de ce projet réside non seulement dans son positionnement scientifique innovant, mais aussi et surtout dans le fait qu’il intègre une approche sociétale de la question de la gestion de l’information. Il a pour ambition d’apporter une solution automatisée d’aide à la décision face à l’accroissement des sources d’information et la saturation des canaux habituels de fact-checking. Le but est alors de mettre en place une plateforme commune de collecte et d’agrégation de données intégrant un moteur de fact-checking combinant l’exploration de différentes sources de données.
Resultats :
Dr Edouard Ngor SARR
- UFR SES
- Université Assane SECK de Ziguinchor(UASZ)
- Ziguinchor-SENEGAL
- TEL: +221 77 755 19 10 / 76 874 1 30