CAHIER D’ESPÉRANCE N°856: «LA PASSION DE LA LITURGIE»

Du lutrin à l’autel, célébrer les merveilles de Dieu  *

Passionné depuis son adolescence à la fois par la liturgie et par la musique liturgique, Daniel TREPIER allie, dans cet ouvrage, qu’il va nous présenter, témoignage et réflexion.

La première partie est un voyage chronologique auquel le lecteur est convié au sein de plus de 50 années de vie liturgique très variées et majoritairement très riches. Un ensemble d’expériences qui peuvent constituer des sources d’inspiration pour des personnes engagées en liturgie.

La participation active des fidèles à la célébration eucharistique est souvent perçue comme une nouveauté totale née à la suite du Concile Vatican II. Le début du livre montrera que cette participation des fidèles a en réalité été voulue par des Papes bien avant ce Concile. De plus, quelle idée de la participation avons-nous ? N’est-ce pas souvent une vision assez  réductrice ? Que nous dit à ce sujet la Constitution Conciliaire ?

La deuxième partie du livre est consacrée à une réflexion surtout centrée sur la liturgie eucharistique, souvent absente ou occultée, mais fondamentale afin que la célébration retrouve toute sa richesse spirituelle.

L’originalité de la dernière partie est de croiser, à propos du chant liturgique,  différents regards complémentaires :

  • une approche historique des prises de position du Magistère de l’Eglise depuis les Pères de l’Eglise jusqu’à la réforme de Vatican II.
  • le point de vue de quelques théologiens spécialistes de ces questions.
  • celui de fidèles et de musiciens.

Rappelons que le choix des chants trouvant leur place dans la célébration eucharistique a été, tout au long des siècles et est toujours, dans les paroisses, la source de nombreuses tensions.

Un livre nécessaire pour mieux comprendre ce qui se joue dans la célébration eucharistique et ainsi mieux la vivre et la faire vivre.

* Edition de L’Harmattan


  Peut-on moraliser les robots ? 

C’est sans doute une invasion…mais elle n’est pas récente. On la trouve notamment depuis longtemps dans l’industrie automobile. Ce qui est récent, c’est l’irruption de l’intelligence artificielle dans ces fameux robots…et les problèmes éthiques, tout à fait nouveaux, qui se posent.

C’est ce sujet très actuel que l’équipe Ethique en Entreprise de NDP a voulu commencer à regarder de près. Après quelques exemples donnés, c’est leur réflexion sur la partie éthique qui nous provoque. 

L’invasion par les robots ne fait que commencer :

Quelques exemples de robotisation :

Substitution des vendeurs de grandes surfaces par des caisses automatiques .

« Trading haute fréquence » (40% des transactions financières) Le trading haute fréquence a des problèmes éthiques de concurrence et d’égalité de traitement. 98% des ordres sont annulés avant la fin, mais cela assure la liquidité, objectif reconnu par l’Autorité des marchés financiers,  au même titre que l’intégrité du marché.

Robots chirurgicaux (réputés au moins aussi précis et rapides que le chirurgien). Quid des responsabilités si la machine faillit ? Le chirurgien doit pouvoir reprendre la main à la moindre erreur du robot. ..

Voiture automatique : elle est statistiquement plus fiable en ce qui concerne les accidents usuels, mais elle présente des risques de gros pépin. On peut se référer au cas de l’accident mortel de la voiture de Tesla * C’est le constructeur, qui sera recherché en responsabilité.

Dilemme : écraser le passant qui surgit ou blesser les passagers ? Choisir la moindre probabilité de tuer, est-ce programmable ?

Robots humanoïdes : le risque est de « déshumaniser notre environnement ». Deux exemples :

  •  Au Japon, robots gardiens d’enfants « plus appréciés que leurs parents par les enfants parce que d’humeur plus égale » !
  •  Et en France, peluches et leurres pour les personnes en EHPAD atteintes de la maladie d’Alzheimer :  respecte-t-on la dignité de la personne ?

Pilotage automatique d’avion : Dans quels cas  le pilote doit-il « reprendre la main » ?  Lorsqu’il a été entrainé à des situations spécifiques ?

Drones militaires tueurs.  La campagne pour leur interdiction a échoué car ils  n’exposent pas les soldats.

  • S’ils peuvent décider eux-mêmes de tuer, alors se pose la question de la bonne saisie-représentation de la cible et celle, problématique, de la proportionnalité de la riposte.
  • Si la décision est humaine et téléguidée, le décideur est plus au calme qu’un pilote embarqué pour juger : il n’est pas physiquement engagé mais sa responsabilité l’est car tout est enregistré.

Robots à éthique programmée :

Le rapport « Towards a framework. to deal with ethical conflicts in autonomous  agents » de ETHICAA** sur l’éthique intégrée dans les robots,  concerne les robots raisonnant et prenant des décisions.

ETHICAA travaille sur leur programmation éthique, leur recours au pluralisme des éthiques, leur aptitude à justifier leurs décisions.

Plusieurs dilemmes apparaissent :

  • La décision du robot repose sur une éthique socialement admise et non sur la liberté occidentale de la conscience individuelle. Le robot n’a pas de conscience, il ne peut dire « en mon âme et conscience » Face à certaines occurrences, il  est incapable de « cri éthique ». Il n’a pas de remords.
  • Choix entre le bien individuel et le bien commun :  nul doute, le robot va choisir la conséquence positive pour le plus grand nombre et c’est une morale utilitariste.
  • Or, la morale sociale peut diverger de la morale individuelle comme le montre par exemple l’enseignement des Papes concernant l’accueil des immigrés Doit-on penser que 9 milliards d’hommes ne pourront cohabiter sur la terre que par un renforcement de la morale sociale au détriment des libertés individuelles ?
  • Le robot peut être programmé pour analyser des alternatives, soit en éthique de conviction, soit en éthique « conséquentielle » de responsabilité***.  Il semble que la confrontation de démarches alternatives envisagées par le robot, avec sa grille de valeurs programmée, doit lui permettre de trouver la démarche la plus éthique possible. De même, la puissance des algorithmes d’examen d’arborescences des conséquences peut l’aider à pratiquer l’éthique de responsabilité.
  • Il peut aussi, selon le rapport, combiner, en matrice « multicritères », les valeurs dominantes dans des éthiques différentes. (Exemples : la justice islamique, la liberté laïque ou l’amour chrétien…)
  • Mais la situation a-t-elle une dimension éthique ?  Le robot n’aura pas de « cri éthique ».
    Comment décidera-t-il du degré de gravité de la dimension éthique ? Puis ensuite décider quelles sont les valeurs pertinentes suivant chaque situation reste aussi problématique. On tente, selon le rapport, quatre modes d’apprentissage du robot :
  • par des exemples avec solutions,
  •  des exemples sans solutions
  •  un « mix »  des solutions précédentes
  • le retour d’expérience…
  • En cas de conflit, le robot doit-il céder à l’opérateur ? Non, si l’opérateur transgresse un interdit programmé, comme « Tu ne tueras pas ».

Oui, semble-t-il, dans les autres cas, car le robot assimile la situation à une situation déjà connue, alors qu’elle peut être originale.

  • Ce n’est plus l’apport technologique, avec son savoir augmenté, qui prédominera demain mais la relation à la personne. On peut robotiser des interventions totalement programmées car la machine fait mieux que l’homme. En revanche, l’homme doit pouvoir garder, devant l’imprévu,  le pouvoir de déroger à toutes les règles.
  • Enfin on peut craindre des bugs du robot s’il a été conçu par un personnel insuffisamment compétent, ce qui, en pratique, risque d’être souvent le cas.
  • Il se constitue un droit sur la responsabilité des robots ; Voir le livre de Alain et Jérémy Bensoussan « Droit des robots ».

L’équipe « Ethique en Entreprise » de Notre Dame de Pentecôte

*  A titre d’information, voir l’opinion du « Huffington Post » ou celle, plus nuancée, de  Guillaume Champeau (Actuellement Directeur de l’éthique et des Relations Publiques de Qwant, le moteur de recherche qui protège votre vie privée…)

**  L’objectif du projet ETHICAA, de l’Agence Nationale de la Recherche, est de définir ce que devrait être un système composé d’un ou plusieurs agents et capable de gérer des conflits éthiques, aussi bien au niveau individuel qu’au niveau collectif. (Voir http://www.agence-nationale-recherche.fr/?Projet=ANR-13-CORD-0006)

*** Ethique de conviction, éthique de responsabilité. Max WEBER, Le savant et le politique, Plon, 10/18, Paris 1995. (Distinction devenue célèbre d’après deux conférences prononcées par le sociologueallemand Max Weber en 1919 à Munich.)

  •  L’éthique de la responsabilité relève de la rationalité.  Elle se caractérise par l’attention aux moyens dans une double perspective : en ce qui concerne leur efficacité pratique, opératoire (car c’est bien la fin qui justifie les moyens) d’une part, en ce qui concerne les conséquences, d’autre part. Le souci d’efficacité encourage le pragmatisme, le compromis, une tendance à réajuster moyens et finalités selon les aléas de l’action, à redessiner les contours du but visé.
  •  L’éthique de la conviction se soucie exclusivement de ne pas trahir une valeur, de ne pas transgresser une norme (par exemple, la vérité et dire la vérité, ne jamais user de la force, etc.)…L’éthique de la conviction réclame la pureté absolue des moyens et s’accommode de l’indifférence à l’égard des conséquences.   Elle exige de respecter ses valeurs tout au long de son action.



N°856 Semaine du 21 au 28 juin 2017

Vous pouvez télécharger le Cahier d’Espérance N°856 au format PDF : 2017 – 856