Parlons éthique #2 : Employabilité et logiciel libre
Compte-rendu du débat
Bonjour !
Nous avons tenu un débat sur l’employabilité dans le domaine du logiciel libre et ses implications éthiques avec Carl Chenet, suite à sa conférence le 19 novembre à l’école 42.
Le débat était à cercle restreint et a réuni 13 personnes autour de cette thématique.
Nous étions partis dans l’idée de faire tourner le débat autour de problématiques imposées mais finalement, les participant·e·s ont su donner une direction à ce débat sans notre intervention.
🔗Crédits
Brume s’est occupée de la prise de notes et de l’écriture du compte-rendu.
🔗Ressources
Voici quelques liens utiles autour de la thématique abordée :
🔗Compte-rendu
Introduction de Carl Chenet
De manière générale, le but d’une entreprise est de gagner de l’argent. Tout est concret, urgent, en cas de problème, on fait du temporaire sur temporaire… La notion d’éthique est donc mal comprise, il y a une certaine distanciation de la part des entreprises vis-à-vis de l’éthique. Ainsi, pour bien choisir son entreprise, il faut estimer son niveau de tolérance personnel de l’éthique vis-à-vis de l’entreprise.
Réaction étudiante : Pour moi, une entreprise doit faire gagner de l’argent, elle est lucrative. Tout ce qui est éthique ne rapporte pas, c’est même généralement le contraire, donc les entreprises ne sont pas intéressées par l’éthique.
Réaction de Carl : Avec la popularisation des réseaux sociaux, l’influence sur Internet, l’image qu’on laisse paraître est extrêmement importante. Toute organisation essaie donc d’être vraiment soigneuse de son image, pour bien paraître auprès des internautes. L’éthique étant de manière générale bien vue, les entreprises pourraient donc tendre vers une image éthique, et donc des actions éthiques derrière. Les réseaux sociaux pourraient donc être un levier pour l’éthique.
On utilise beaucoup le mot “éthique”, mais quelle en est sa définition ? On pourrait prendre l’exemple d’une entreprise énergétique. Il serait éthique qu’elle aie une cohésion écologique, un certain respect du bien-être, le désir de ne pas dégrader l’environnement. L’éthique est rentable au long terme, mais pas au court terme, ce qui ne correspondrait donc pas avec la vision d’une entreprise qui réalise actions temporaires sur actions temporaires.
Un·e étudiant·e trouve la vision du salariat comme un moyen de gagner de l’argent, sans aucun autre intérêt, extrêmement pessimiste.
Un·e autre affirme s’intéresser à des entreprises ayant un pied dans le libre, comme Nextcloud, car ce genre d’entreprises ont l’air éthiques, ce qui lui conviendrait.
Autre définition de l’éthique proposée : Un ensemble de valeurs morales et sociales. Dans certaines boîtes, il y a un réel but éthique. Malheureusement, souvent, il y a des “dérives capitalistes”. C’est le cas des GAFAM, pour qui les données personnelles représentent un réel intérêt lucratif, malgré leur but premier. Une entreprise comme Nextcloud, pour reprendre l’exemple cité plus haut, ne possède pas un tel intérêt lucratif, donc elle n’a pas d’intérêt direct à vendre les données personnelles.
Carl donne un autre exemple : le cas de Google. Dans cette entreprise, les salarié·e·s sont extrêmement bien traité·e·s. On pourrait donc considérer que cela soit éthique ? Et pourtant, ces employé·e·s se sont rebellé·e·s [projet Dragonfly]. On peut en déduire que la définition d’éthique change en fonction des gens.
Le cas de Cambridge Analytica a été évoqué : une entreprise privée qui a utilisé les données publiques de Facebook pour établir des statistiques sur les opitions politiques des citoyen·ne·s américain·e·s, puis pour influencer le vote aux élections présidentielles dans le but de réduire le taux de vote blanc et d’astention, au moyen de publicités ciblées sur les utilisateur.ice.s de Facebook.
Carl raconte : Il a été sysadmin dans une entreprise qui crée des blogs. Il a reçu une commission rogatoire (acte légal qui consiste à ce qu’un juge demande des informations, sans possibilité de refus). Il devait donner des informations personnelles d’utilisateurs, ou plus exactement signaler et certifier le contenu des blogs. Cela allait contre son éthique, donc Carl n’avait pas envie de travailler en contact de ces juges. On lui a cependant dit qu’il devait obéissance à son entreprise. Il a donc décidé de dire non, et de partir de l’entreprise.
Il peut donc y avoir une réelle confrontation entre légal et éthique.
Beaucoup d’entreprises tiennent une charte éthique qui est censée représenter la vision de l’éthique de l’entreprise. Cela peut permettre de se faire une première idée de l’entreprise avec laquelle on passe un contrat. Dans le cas de Carl, la demande semblait aberrante et pas en cohésion avec cette charte éthique.
Un·e étudiant·e demande si une telle requête est légale. Carl répond que oui, totalement. Beaucoup d’étudiant·e·s sont étonné·e·s. D’autres leur expliquent donc le principe des “fiché·e·s S” : des utilisateur·ice·s peuvent être mis sur écoute attentive dès qu’il·elle·s installent Tor, Linux, ou alors qu’il·elle·s postent des commentaires suspects sur les réseaux sociaux. Comme aux États-Unis avec les subpoenas, il est impossible en France de refuser une telle demande d’informations personnelles.
Le débat se recentre autour d’une question : comment éviter que la recherche de profit d’une entreprise s’insère dans le processus de développement de logiciel libre ?
Il est tout d’abord question d’éthique personnelle : une personne ou une communauté développant un logiciel libre aura généralement une certaine éthique qui empêchera la recherche de profit (sinon, le logiciel ne serait pas libre).
Il est aussi possible d’avoir une volonté de changer, d’impacter la société. Il est possible, pour cela, d’aller dans une entreprise pour impacter légèrement ses collègues, son environnement, le monde autour de soi…
Un·e étudiant·e demande si cela ne serait pas valable uniquement dans les petites entreprises. La réponse est non : toutes les grosses entreprises utilisent du logiciel libre. Beaucoup de raisons à cela : maintenabilité, prix, efficacité… mais pas pour l’éthique : les développeur·euse·s utilisent parfois les logiciels libres pour en faire des logiciels propriétaires.
Exemple des Freebox sur lequelles il était écrit “en location”, car Free utilisait le kernel Linux avec des modifiations qui ne sont pas publiques. En conséquence, la licence ne permettait pas de vendre les produits, donc, ils étaient en location.
Il arrive aussi que des développeur·euse·s prennent un logiciel libre, changent le logo, le nom… et le rendent propriétaire et payant. Les licences ne sont donc pas toujours respectées.
Cela justifie notamment le succès récent de licences telles que la MIT, car elles permettent de “refermer” un code libre, ce que ne permet pas la licence GPL. Il y a d’autres licences alternatives, considérées non libres, comme la MPL, qui est une licence “non violente” : elle empêche une utilisation violente du code. Par exemple, il est interdit d’utiliser un code sous cette licence pour réaliser un programme meurtrier.
Une question se pose alors : Si une entreprise peut payer des gens pour travailler sur le kernel Linux à plein temps, donc sur du logiciel libre, mais dans l’objectif de le mettre sur des drones qui vont tuer des gens, est-ce éthique, ou pas ?
Cette question n’a malheureusement pas vraiment de réponse.
Les développeur·euse·s ne font pas “que” écrire des programmes. La société ne se rend pas compte de l’importance que prend le numérique. C’est une énorme responsabilité sur le dos des développeur·euse·s. Chaque développeur·euse peut être vu·e comme l’un des rouages d’une énorme machine : chaque rouage de la machine ne fait rien de nocif, ou du moins ne croit rien faire de nocif, alors qu’en réalité, la machine dans son entièreté peut être extrêmement nocive. C’est pourquoi un grand besoin de sensibilisation et d’éthique se fait ressentir dans le milieu de l’informatique.
Un·e étudiant·e demande : mais si le développeur·euse ne sait pas ce qu’il·elle est en train de faire ? Si c’est de l’ignorance ? Est-il·elle quand même fautif·ve ?
Quoi qu’il arrive, “la faute” est faite. Il n’y a pas de grande différence de résultat, que la personne soit ignorante ou malicieuse. Exemple du tournevis : celui qui a inventé le tournevis n’est pas fautif ou même responsable de celui qui a conçu une bombe avec le tournevis.
Les futurs développeur·euse·s doivent donc être sensibilisé·e·s. Il est nécessaire de prendre conscience de nos actes, de ce dont nous sont capables de faire, de penser aux conséquences de ces actes, de ce à quoi leur code pourrait servir.
Un·e étudiant·e met en garde contre l’éblouissement par la prouesse technique au détriment de ce qui va en être fait : il·elle donne l’exemple de l’un de ses amis qui était très heureux à l’idée d’avoir réussi à réaliser un logiciel de reconaissance faciale pour une grande entreprise, car il avait pris beaucoup de plaisir à le réaliser.
La société déhumanise les gens, les infantilise. On ne les invite pas à penser à ce à quoi leur code va servir. On ne les inclut pas du tout dans l’usage de leur travail.
Carl approuve : il est important de mesurer l’impact de ses actes, de se demander si cela reste éthique. Il arrive parfois que les développeur·euse·s ne soient même pas mis au courant du produit fini dont il·elle·s réalisent une partie.
Exemple de Netflix : plateforme géniale pour l’utilisateur·ice. C’est pratique, simple, il y a beaucoup de choix… Cependant, derrière, il y a un impact écologique non négligeable : la quantité de vidéos stockées dont la majorité ne sera visionnée que par une minorité de personnes nécéssitent énormémant de serveurs, qui laissent une empreinte écologique conséquente.
On peut rarement prévoir l’utilisation ultérieure de ce que l’on construit maintenant. Il est donc important de garder un cap. Dans le salariat, il y a lien de subordination certes, mais pourtant, le·la développeur·euse a énormément de responsabilités.
Un·e étudiant·e présente un autre point : le lithium, composant électronique primordial, qui devient une ressource rare, au point que des guerres naissent pour s’en procurer. On peut donc se demander si concevoir un programme coûteux en énergie, qui nécessitera de plus gros ordinateurs, est un manque d’éthique, puisque cela “cause” indirectement des guerres. La considération de l’éthique pourrait donc maintenant demander de réaliser des programmes optimisés. Les besoins de l’éthique peuvent donc évoluer. À quel point quelque chose peut être considéré comme un besoin éthique ?
Résumé de Carl : l’éthique est extrêmement variable et différente pour tout le monde. Il est du devoir de chacun·e, en tant qu’être humain, de réfléchir aux conséquences de nos actes.
À bientôt,
N&B