ENJEUX, RÉPERCUSSIONS ET CADRE ÉTHIQUE RELATIFS À L’INTELLIGENCE ARTIFICIELLE EN SANTÉ VERS UNE INTELLIGENCE ARTIFICIELLE ÉTHIQUE EN MÉDECINE
##plugins.pubIds.doi.readerDisplayName##:
https://doi.org/10.3917/dsso.064.0030Mots-clés:
Intelligence Artificielle, Ethique, Santé, Responsabilité, Risques, Principes, Recommandations.Résumé
Un climat alternant le chaud et le froid, s’est installé alternant engouement et suspicion, envers le numérique et les développements de l’Intelligence Artificielle (IA). Cela a pour conséquence de rendre plus fragile la relation de confiance entre les professionnels notamment dans le domaine de la santé et les citoyens. Face aux enjeux grandissants qui entourent l’IA en santé, une vision éthique apparaît nécessaire afin de retrouver de la cohérence et du sens dans l’approche de cette nouvelle technologie. Cette réflexion éthique renvoie à un système de valeurs pour lesquelles sont associées quatre principes éthiques
universels notamment en biomédical : l’autonomie des personnes, la bienfaisance, la non-malfaisance et la justice. Par conséquent, les machines intelligentes doivent être éthiques dès leur conception, jusqu’à leur usage. La responsabilité attachée à la machine appartient à la fois aux concepteurs et aux propriétaires. Ainsi, il est essentiel d’apporter une « personnalité morale » à ces IA par le biais d’une conscience éthique algorithmique. En définitive, la notion de responsabilité doit être au centre de la relation médecin-IA-patient.

