[Précédent]

INTRODUCTION

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

       L’homme est la justification première de toute démarche visant la protection de l’environnement. L’histoire de la santé a montré qu’en agissant sur l’environnement, on peut mener une action préventive efficace vis à vis des différents risques. La prise en compte de l’impact sanitaire des facteurs environnementaux se fait en France progressivement et à différents niveaux politiques. Au niveau national, sous la responsabilité politique de Brice Lalonde : ministre de l’environnement (1988-1992), des initiatives concernant les questions de santé ont été prises en direction des professionnels de la santé. Le programme Santévir (Santé-environnement) chapeauté par le service de recherche de Neuilly sur Seine, lieu administratif du ministre, en est un exemple. Des actions communes entre la Direction Générale de la Santé et la délégation de la qualité de la vie ont permis en 1990 un rapprochement des différents partenaires. Celui-ci a abouti à l’élaboration d’un document intitulé «constat national de collaboration» paraphé par B. Kouchner et Ségolène Royal respectivement ministre de la santé et de l’action humanitaire et ministre de l’environnement. Jacqueline Denis Lempereur ex-journaliste de Sciences et Vie s’est vue confier en 1994 par le ministre de l’environnement une mission (d’une durée de 2 ans) ayant pour finalité le développement des relations entre la santé et l’environnement, c’est à dire, permettre aux deux ministres de coordonner leurs efforts en direction de la santé publique et de la qualité de la vie.(Rissoire, 31 nov. 94)

      Ainsi, lors des Entretiens de Ségur de 1994, Mrs Barnier (Ministre de l’Environnement) et Douste-Blazy (Ministre délégué à la Santé) ont reconnu la nécessité d’une collaboration étroite entre les ministères. D’autre part, un programme de recherche sur l’environnement et la santé, intitulé PRESENT a été lancé le 12 décembre 1995 par les Ministres de l’Enseignement supérieur et de la Recherche, de l’Environnement et de la Santé. Il est destiné à mieux fonder les politiques de prévention et à évaluer et analyser les effets des perturbations de l’environnement sur l’homme soit directement, soit à travers les systèmes vivants dans les domaines de la qualité de l’eau, de l’air, l’alimentation, les déchets, les risques naturels et technologiques, les problèmes d’exposition et les effets sur la santé de l’homme. Parallèlement à ces initiatives ministérielles un rapport parlementaire sur les thèmes de l’environnement et de la Santé a été confié à l’office parlementaire des choix et évaluations scientifiques et technologiques. C’est Jean François Mattei député U.D.F. des Bouches du Rhône (en 1995), pédiatre généticien qui est à l’origine de ce rapport intitulé: «Les liens entre la santé et l’environnement notamment chez l’enfant». Dans le tome 1 enregistré le 22.02.96. J.F. Mattei estime qu’il y a une sous-évaluation des effets de l’environnement sur la santé, celle-ci ayant comme conséquence la faible attention et l’insuffisance de moyens attribués aux relations entre la Santé et l’Environnement. William DAB docteur en médecine, professeur à l’école nationale de la santé publique, coauteur du rapport estime que les problèmes d’environnement occupent une place restreinte au Ministère de la Santé et sont dominés par le curatif et la question de la maîtrise de la dépense des soins (p.180). D’autre part, selon lui, les ingénieurs qui dominent en nombre au Ministère de l’Environnement sont dépourvus de culture sanitaire, en conséquence les préoccupations de ce ministère sont de fait la sauvegarde de la faune et de la flore plutôt que la santé humaine et les budgets successifs ne comprennent que de bien faibles dotations pour des actions Santé-Environnement. «Il est donc primordial de poser en préalable que la santé de l’homme doit être la pierre de touche de la protection de l’environnement.» (p182) Lors de son audition, Monsieur Denis Hémon, Directeur de Recherche à l’Institut national de la santé et de la recherche médicale, a noté l’interconnexion de nombreuses disciplines et institutions dans le domaine de la Recherche en Santé Environnement. Les disciplines telles la biochimie, l’immunologie, la microbiologie, la génétique... «peuvent apporter des contributions majeures à la connaissance des mécanismes par lesquels les agents physiques, chimiques ou biologiques de l’environnement peuvent interférer avec la santé des êtres humains». Néanmoins, il estime que «l’articulation entre la recherche scientifique et la demande sociale reste mal structurée dans le domaine des relations Santé Environnement.» (p184) Le manque de structure semble dû à la dispersion des compétences scientifiques mais aussi à la demande de recherche. Comme l’a souligné Marcel Goldberg, Professeur de santé publique à l’Université Paris V, Directeur de l’Unité 88 de l’I.N.S.E.R.M., la demande en matière de recherche Santé Environnement est extrêmement ponctuelle, soumise à l’actualité «quand se pose brutalement en temps de crise un problème aigu de pollution notamment». (p185)

      Face à ces constats, William Dab préconise la mise en place d’un plan de formation des personnels impliqués dans la recherche, autour de quatre grands ensembles : «les sciences de base (physique, chimie, microbiologie), les sciences de l’ingénieur, les sciences de la santé publique et les sciences de l’organisation» auxquels il conviendrait d’ajouter un cinquième pôle centré sur les sciences humaines comme le propose Simon-Daniel Kipman (psychiatre, psychanalyste, président-fondateur de la Fédération française de psychiatrie, membre du groupe de travail). (p 187,188) Pour Jean François Matteï, il s’avère nécessaire d’amorcer une prise de conscience collective. «L’homme doit apprendre à faire des choix de vie, adopter des comportements face à son environnement qui soient fidèles à l’idée qu’il se fait de lui même.» En attirant l’attention sur des mesures d’ordre global ayant un impact sur l’environnement comme l’éducation, la formation ou encore l’aménagement du territoire... et en encourageant l’adoption de textes législatifs et réglementaires. (Mattei, janv.fev. 1995)

      Cette même année, le Ministre de l’ Environnement, Mme C. Lepage a créé un comité de la prévention et de la précaution chargé de veiller, d’alerter et d’expertiser les effets de l’environnement sur la santé. Il est présidé par le professeur A. Grimfeld, pneumologue et a pour mission d’évaluer les conséquences de la qualité de l’air, de l’eau, des sols, des rayonnements, du bruit et des substances chimiques et biologiques sur la santé. Mais c’est la Loi sur la qualité de l’air et l’utilisation rationnelle de l’énergie présentée par Mme Corinne Lepage et approuvée par les Sénateurs et les Députés le 30 décembre 1996 qui marque un tournant essentiel dans la prise en compte des risques sanitaires liés à la qualité de l’air. «Paradoxalement, la loi sur l’air de 1996, présentée par le Ministre de l’Environnement est beaucoup plus soucieuse de la santé humaine que ne l’était la loi de 1961 pourtant édictée sous l’autorité du Ministre chargé de la Santé.» (Roussel, 1997)

      A Lille comme dans huit autres agglomérations françaises, une étude des effets de la pollution atmosphérique (SO2, NO2 et O3 ) sur la santé a été menée sur la période 1990-95 afin de calculer, pour 100 000 habitants le taux annuel cumulé de décès « anticipés » attribuables à la pollution (décès survenant un jour donné, en relation avec la pollution, indépendamment de l’âge ou d’autres facteurs de risque et qui, en l’absence de pollution ce jour là, ne se seraient pas produits). A Lille, les taux annuels cumulés de décès « anticipés » (pour 100 000 habitants) sont de 0.2 pour la mortalité respiratoire, 1 pour la mortalité cardio-vasculaire et 2.8 pour la mortalité totale. L’analyse a montré que l’impact sur la mortalité (totale, cardio-vasculaire et respiratoire), pour une même augmentation du niveau de polluants, était comparable d’une ville à l’autre et qu’il n’existe pas de seuil en dessous duquel on ne ressent pas les effets de la pollution.

      Une autre étude menée par les chercheurs du programme européen Apheis a permis de quantifier le nombre de décès « anticipés » liés cette fois aux particules dégagées par les pots d’échappement des particules diesels. Dans les 19 villes européennes étudiées, une baisse d’environ 5 µg par mètre cube d’air permettrait d’éviter 19 décès « anticipés » pour 100 000 habitants. Compte tenu de ces faits et du coût qu’ils représentent (près de 50 milliards d’euros par an), la Commission européenne a fixé comme objectif pour 2010 de réduire de 30 à 20 µg par mètre cube d’air les émissions de particules d’un diamètre inférieur à 10 μm (celles qui pénètrent dans l’appareil pulmonaire). Fin novembre 1999 a été rendu public un rapport prônant la création d’une agence de veille sanitaire, structure opérationnelle permettant d’évaluer le liens de causalité qui soudent l’environnement et la santé dans un contexte où 90 % des habitants de la planète vivront bientôt en ville « où ils se trouveront confrontés à la multiplication des expositions environnementales ». En effet « l’homme possède une capacité accrue à générer de nouveaux facteurs de risques via l’environnement, particulièrement par l’utilisation de substances chimiques », de plus, les dégradations dues à un héritage industriel et l’effet différé des pollutions actuelles font et feront peser une menace sur sa santé. « Au-delà des cancers, l’évolution rapide d’autres pathologies plaide également pour l’implication de facteurs environnementaux comme l’asthme, par exemple. » André Aschieri, député vert et Odette Grzegrzulka, députée PS, auteurs du rapport « Propositions pour un renforcement de la sécurité sanitaire environnementale rappellent qu’  «en situation d’incertitude scientifique, l’organisation du débat public permet de démocratiser le processus de décision. » et ce débat

      «  ne peut cependant être fructueux que si le citoyen dispose des éléménts et des moyens lui permettant d’en comprendre les arguments... Il est indispensable, alors, de promouvoir l’éducation et la sensibilisation aux problèmes sanitaires et environnementaux dès l’école primaire en les faisant figurer dans les programmes scolaires et de faire de celle-ci un véritable lieu de l’éducation sanitaire. » (Dangaix, janvier 1999)

      

      Depuis les années 1970, nous assistons à une volonté d’élargissement des missions de l’école dans le domaine de la prévention et de la citoyenneté. Ainsi, cette volonté est clairement affichée dans la Loi d’orientation sur l’éducation du 10.07.89 : « Le droit à l’éducation est garanti à chacun afin de lui permettre de développer sa personnalité, d’élever son niveau de formation initiale et continue, de s’insérer dans la vie sociale et professionnelle, d’exercer sa citoyenneté » ; « La formation des élèves dans les domaines des sciences de la vie, l’éducation pour la santé et la prévention des agressions et des consommations nocives doivent également constituer une préoccupation pour les parents d’élèves, l’équipe éducative et le service de santé scolaire. » (rapport annexe) et réaffirmée dans la circulaire du 01.07.98  : « la prévention fait partie intégrante de la mission éducative de l’école. » L’éducation Santé Environnement est un moyen d’amener l’individu à agir sur son environnement afin de préserver sa santé. Elle doit permettre d’améliorer en même temps l’environnement, la qualité de vie et l’estime de soi afin de promouvoir l’homme en santé. Ainsi, elle doit contribuer à lutter contre les comportements à risques (pour soi, pour autrui et pour l’environnement) en rendant l’individu acteur, libre de ses choix et en l’accompagnant dans sa quête d’autonomie et de responsabilité. Mais l’éducation Santé Environnement doit aussi développer chez l’élève une conscience politique basée sur les valeurs de démocratie, de droits et de devoirs, de solidarité et de responsabilité afin de le rendre à même de faire des choix, de participer au débat social voire à le revendiquer. A travers l’éducation Santé Environnement se jouent les questions de transformation de l’école, de son rapport au monde extérieur, de ses missions, de ses finalités, des savoirs qu’elle enseigne, de ses méthodes de travail et de la formation des enseignants.

      L’étude des instructions officielles, des années 1970 à ce jour permet de mettre en évidence l’évolution des orientations ministérielles concernant l’éducation Santé Environnement, la nécessité d’ouvrir l’école au monde extérieur et d’intégrer des partenaires dans un projet éducatif global pour lequel il est indispensable de former le personnel enseignant car comme le souligne G. Roche (1993), la formation du citoyen repose plus que jamais sur l’école et dans cette institution sur le professeur. S’engager dans l’acte éducatif nécessite de la part de l’enseignant de mobiliser des compétences relatives à chacun des trois aspects de la « mission » d’un professeur afin d’atteindre les objectifs fixés, à savoir ceux précisés dans la circulaire du 23.05.1997, définissant la mission du professeur du second degré :

      

       _ instruire les jeunes,

       _ contribuer à leur éducation,

       _ les former en vue de leur insertion sociale et professionnelle.

      

      Ces objectifs peuvent être déclinés dans le champ de l’éducation Santé Environnement. Ainsi :

      

      

       _ Instruire c’est :

      

      Permettre à chacun d’accéder progressivement à la culture de base, c’est aider les élèves à construire des savoirs indispensables pour aborder la complexité des problèmes auxquels ils sont ou seront confrontés dans leur vie sociale et professionnelle. Ceci implique de les amener à la maîtrise des concepts opérants dans le champ de la santé et de l’environnement c’est à dire des concepts nouveaux et/ou qui évoluent comme les concepts de qualité, de traçabilité, de précaution, de vigilance, de risque zéro, d’expertise, de gestion et maîtrise des risques, de sécurité, de prévention, de promotion... mais aussi de leur permettre de construire des savoirs pluridisciplinaires en perpétuelle évolution, formulés en hypothèses par des experts et des contre-experts dépendants des pouvoirs politico-économiques, rarement validés, l’incertitude scientifique étant plus ou moins grande, plus ou moins avouée. Mais instruire dans le champ Santé Environnement, c’est aussi contribuer à l’initiation à l’esprit scientifique, c’est à dire développer des méthodes (d’exploration, d’observation, d’information, d’expérimentation, d’action mais aussi de réflexion, de formalisation et d’évaluation), encourager des attitudes donnant envie et permettant de réfléchir avec efficacité et incitant à la recherche et à l’action (attitude de curiosité, de créativité ou encore attitude critique vis à vis de ses propres opinions et de celles d’autrui mais aussi de confiance en soi.).

      L’instruction en Santé environnement doit donc permettre :

      _ d’accorder plus de poids à l’observation qu’aux affirmations et donc de faire fi des préjugés et des rumeurs, de se méfier d’une médiatisation tapageuse et/ou liée au pouvoir politique ou économique.

      _ la mise en relation des connaissances scientifiques et des activités humaines et donc de réinvestir son savoir dans la vie quotidienne, d’explorer son environnement afin d’effectuer des choix véritables, si possible raisonnés.

      _ de poursuivre son éducation tout au long de sa vie.

      

      

       _ Contribuer à l’éducation c’est :

      

      _ intégrer l’éducation Santé Environnement dans une perspective éducative d’ensemble,

      _ contribuer à leur construction d’homme et de femme adulte,

      _ faire comprendre aux élèves le sens et la portée des valeurs à la base de nos institutions et de la vie sociale sur le plan local et national afin qu’ils y adhèrent librement et développer une solidarité planétaire prenant en compte la fragilité de notre biosphère,

      _ aider les élèves à adopter des attitudes responsables, des comportements réfléchis et critiques en terme de prévention des conduites à risques ou en terme de consommation.

      

      

       _ Les former en vue de leur insertion sociale et professionnelle c’est :

      

      _ former l’esprit mais aussi la personnalité,

      _ aider les élèves à développer un esprit critique de manière à les mettre en mesure de réagir de façon responsable et autonome dans les situations de la vie quotidienne et leur permettre de faire des choix personnels,

      _ préparer les élèves au plein exercice de la citoyenneté.

      L’acte éducatif en Santé Environnement peut donc être défini par :

      

       _ des concepts opérants,

      

       _ des contenus scientifiques et techniques théoriques et appliqués,

      

       _ des valeurs sous-tendant des attitudes et des comportements favorables à la promotion de la santé et à la durabilité de l’environnement :

      

       _ attitudes de responsabilité, de respect de soi, des autres et du droit, de solidarité, de modération et de contrôle,

       _ comportement de prévention vis à vis des M.S.T, de la contraception, des conduites à risques en matière de substances psychoactives,

       _ comportement de consommateur averti, de citoyen actif.

      

       _ des finalités globales :

      

       _ aider à la construction d’un humain, adulte autonome et volontaire,

       _ tendre à mettre l’élève en mesure de réagir de façon réfléchie et responsable dans les situations de la vie quotidienne (notamment à effectuer des choix et en être conscient),

       _ permettre à l’élève de «définir un équilibre entre des facteurs de plaisir et de risque qu’il ne contrôle pas encore. » (Got, 2001, p125) entre ce qui relève d’une prise de risque « acceptable » et d’une conduite dangereuse voire suicidaire.  

      

      

       _ des objectifs permettant d’atteindre ces finalités éducatives :

      

       _ développer l’esprit critique,

       _ débattre des valeurs et expliciter la norme,

       _ construire une relation avec des valeurs souvent contradictoires,

       _ aider à la prise de parole argumentée, à la manifestation publique,

       _ faire sienne des questions de santé et d’environnement,

       _ prendre conscience de la complexité des problématiques,

       _ rechercher, sélectionner et traiter l’information pour la maîtriser,

       _ s’impliquer dans un projet santé environnement.

      

       _ des stratégies didactico-pédagogiques à mettre en oeuvre pour atteindre les objectifs :

      

       _ pédagogie de résolution de problèmes,

       _ pédagogie du débat argumenté,

       _ pédagogie du projet, de la recherche action.

      

      

       La mise en oeuvre de l’acte éducatif tel qu’il vient d’être défini est tributaire de l’enseignant, de son histoire qui a des composantes psycho-affectives individuelles mais qui s’enracine aussi dans un milieu social, lequel a ses manières propres de penser, sentir, agir... une culture personnelle. Ainsi « on ne porte que les valeurs qui nous ont été transmises dans l’expérience. On ne respecte les autres que parce qu’on a fait l’expérience du vrai bonheur qui advient de la rencontre. On ne prône la solidarité que quand on a éprouvé la joie des hommes qui s’unissent au lieu de se déchirer. On ne rejette l’indifférence que quand on a mesuré à quel point on se réalise dans l’engagement. » (Meirieu, 2002, p228)

      D’autre part au sein de l’institution scolaire, le statut (contractuel, maître auxiliaire, stagiaire, titulaire), la formation initiale professionnelle (1 ou 2 ans en ENNA, en IUFM ou inexistante) ainsi que l’ancienneté dans la fonction sont autant de variables qui influencent l’engagement dans la mise en oeuvre de l’acte éducatif. Mais ces variables sont elles mêmes transformées par l’implication personnelle de l’enseignant dans sa vie sociale. L’enseignant n’étant pas simplement un relais, un simple applicateur de procédures mais plutôt un intégrateur de données. Ainsi, l’implication cognitive, sociale, politique, éthique et émotionnelle sont autant de ressources que l’enseignant intégrera et mobilisera dans l’acte éducatif. La mobilisation de ces ressources permet de compenser des déficits comme l’absence de formation professionnelle, de reconnaissance statutaire ou encore d’expérience professionnelle.

      

       Nous formulons donc l’hypothèse que l’implication personnelle de l’enseignant dans sa vie sociale et professionnelle est un facteur explicatif d’engagement éducatif et qu’il est nécessaire de le prendre en compte dans sa formation professionnelle. L’implication éthique (attitudes et comportements que l’on cherche à développer et les valeurs que l’on prône), l’implication sociale (professeur = praticien ), l’implication cognitive (légitimité de savant), l’implication politique (engagement idéologique) et l’implication émotionnelle (peurs que l’on veut partager) constituent des ressources dont la mobilisation permet d’augmenter le degré d’engagement dans le respect des instructions officielles. Compte-tenu de l’évolution de la mission éducative confiée aux enseignants et des spécificités de l’éducation Santé Environnement il nous semble nécessaire de mener une réflexion sur de nouveaux programmes de formation. La formation des maîtres évoluant vers un modèle européen de magister, cadre A, véritable enseignant professionnel au sens de concepteur capable de faire des choix réfléchis de stratégies adaptées aux objectifs et aux exigences éthiques et d ’analyser de façon critique ses actions et ses résultats. Les compétences professionnelles nécessaires à l’enseignant chargé de cette éducation sont à acquérir  sur l’ensemble d’une carrière notamment par le biais de la formation continue qui pourrait s’envisager comme un espace de recherche professionnelle, une des finalités de la formation initiale étant de donner au professeur stagiaire « le goût et la capacité de poursuivre sa formation ». La formation des professeurs chargés de l’éducation Santé Environnement devrait alors relever le défi d’intégrer les différentes dimensions: éthique, sociale, cognitive, politique et affective qui sont intimement liées et imbriquées.

      

      Nous testerons notre hypothèse dans le champ disciplinaire Santé et Environnement auprès de professeurs de lycée professionnel : les PLP Biotechnologie Santé Environnement.

      

      

      

      

      

      

      

      

      

      

      Des enseignants particulièrement concernés par l’éducation Santé Environnement

      

       Les professeurs de Biotechnologie Santé Environnement sont tout particulièrement impliqués dans l’éducation Santé Environnement en lycée professionnel. En effet, depuis la rentrée scolaire de 1992, ils assurent dans toutes les classes de CAP et de BEP l’enseignement de la Vie Sociale et Professionnelle.

      En classes préparatoires aux CAP, cet enseignement a pour finalité de favoriser l’insertion familiale, sociale et professionnelle des personnes. De par les domaines abordés: Santé, Environnement, Consommation et Entreprise et Vie professionnelle, cet enseignement vise à aider les élèves à gérer leur santé, à participer à la protection et à la qualité de l’environnement, à agir en consommateur averti et à se situer dans leur vie professionnelle. Dans la préparation aux BEP, cet enseignement a pour objectif de permettre une approche systémique des situations rencontrées dans la vie quotidienne, de favoriser l’insertion sociale et professionnelle et d’amener l’élève à mieux gérer sa santé, sa consommation, pour améliorer sa qualité de vie. L’éducation Santé Environnement est fondamentalement pluridisciplinaire et il n’existe pas en France de licence préparant au professorat de Biotechnologie Santé Environnement ni d’agrégation. Les professeurs de Biotechnologies Santé Environnement ayant passé le concours avant 1989, ont pour la plupart un BTS d’Education Sociale et Familiale (créé en 1969), les plus jeunes ont généralement une Licence de Biologie ou une Licence de Sciences Sanitaires et Sociales ou encore un diplôme d’état d’infirmière. Au fur et à mesure des différentes disciplines qui leur sont confiées, l’appellation disciplinaire a été modifiée : successivement professeurs d’enseignement ménager, professeurs d’Education Familiale et Sociale (1972), puis professeurs de Sciences et Techniques Biologiques et Sociales (1987) et enfin professeurs de Biotechnologies Santé Environnement (1992). Certains professeurs de Vie Sociale et Professionnelle ont assuré l’Enseignement Ménager en CAP jusqu’en 1973 puis l’Education Familiale et Sociale jusqu’en 1993. Mais les professeurs de Biotechnologie Santé Environnement n’enseignent pas tous, ou pas uniquement la Vie Sociale et Professionnelle. Ils assurent la totalité des enseignements de techniques professionnelles, de technologie et les savoirs associés en CAP Agent Polyvalent de Restauration, en CAP Maintenance et Hygiène des Locaux, en BEP Bioservices à dominante Agent Technique d’Alimentation ou Maintenance et Hygiène des Locaux, en Bac. Professionnel Hygiène et Environnement. Dans les sections hôtelières, ils interviennent en Sciences Appliquées et dans l’ensemble des Bac. Professionnels des secteurs de l’industrie et du bâtiment, ils participent à l’Enseignement de la Prévention des Risques Professionnels.... Ces professeurs doivent donc non seulement faire face au fur et à mesure de leur carrière à l’évolution des finalités de leur enseignement, mais aussi à assurer une multitude d’enseignements parfois très éloignés les uns des autres (de la nutrition aux techniques d’assainissement) et de leur formation initiale (enseigner la spray-méthode avec une licence de biologie des populations).

      

       Un premier chapitre nous permettra de suivre l’évolution des orientations du Ministère de l’Education Nationale dans le domaine de l’éducation Santé Environnement afin d’en dégager la mission du professeur du secondaire chargé de celle-ci. Ainsi, il sera possible de définir les compétences professionnelles nécessaires à l’éducateur pour assurer au mieux l’acte éducatif. Le second chapitre sera consacré au champ disciplinaire Santé Environnement, à ses concepts opérants et à son contenu scientifique et technique. Nous nous intéresserons plus particulièrement dans le troisième chapitre à 2 domaines, celui de la qualité de l’eau destinée à la consommation humaine et celui des infections, en étudiant sur une vingtaine d’années des publications scientifiques et techniques et des dépliants d’information destinés au public, c’est à dire les sources documentaires des professeurs. Nous tenterons dans le quatrième chapitre de mettre en évidence l’impact de l’implication personnelle de l’enseignant dans sa vie sociale et professionnelle sur l’engagement dans l’acte éducatif en Santé Environnement par le biais d’un questionnaire proposé à un panel de professeurs de Biotechnologie Santé Environnement enseignants des lycées professionnels. Cette recherche nous permettra dans un cinquième et dernier chapitre, de poursuivre notre réflexion sur la formation de ces professeurs afin de leur permettre de construire leur identité professionnelle en s’appuyant sur leur identité personnelle.

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      


chapitre 1
Education Santé Environnement: une composante de l’éducation à la citoyenneté.

      

      

      

       Comme le souligne F. Lapoix, Professeur d’écologie urbaine (sept/oct. 1993), le manque d’information, de formation et de communication dont nous souffrons au sujet des solutions scientifiques et techniques envisagées pour résoudre les problèmes de santé et d’environnement, frise quelque fois « l’acculture » et rend très difficile leur application. D’autre part, il existe d’« étroites similitudes » entre les pédagogies et les modes de communication que nous sommes amenés à développer pour rendre plus familier au public les domaines de la santé et de l’environnement qui sont en particulier en milieu urbain très imbriqués. « Enfin, comme l’environnement, la santé est le lieu de rencontre entre techniques, sciences pures et dures et sciences sociales, il y a donc là une ressemblance mais aussi une « connivence » qui ne doit pas échapper aux responsables et aux pédagogues. » Mais surtout, l’éducation Santé Environnement « porte en elle , le « gemme » d’une nouvelle attitude, d’une nouvelle prise de conscience fondée sur un changement de nos mentalités » sous réserve d’éviter les écueils inhérents à la pratique éducative (attitude moralisatrice, recettes décontextualisées, dogmatisme, message anxiogène...) et de former les enseignants, l’éducation Santé Environnement peut être «  la véritable éducation civique du XXIème siècle ».

      

       Par l’étude des orientations officielles des années 1970 aux années 2000 concernant successivement l’éducation à la santé puis l’éducation à l’environnement et par la présentation d’une discipline enseignée uniquement en lycée professionnel et organisée en 4 domaines dont ceux de la santé et de l’environnement, nous allons tenter de:

      _ mettre en évidence les similitudes et les liens entre ces deux domaines éducatifs.

      _ définir les compétences nécessaires au professeur du secondaire chargé de l’éducation Santé Environnement et plus particulièrement au P.L.P. Biotechnologies Santé Environnement qui assure cet enseignement en seconde et terminale B.E.P..

      

      

      

      

      

      

      

      


1. Ecole et éducation Santé Environnement : évolution des orientations ministérielles depuis une trentaine d’années

      

      

       Informer sur les comportements à risques, faire découvrir le milieu environnant sont les premières orientations ministérielles données en terme d’éducation Santé Environnement. Mais celles-ci évoluent en inscrivant l’éducation Santé Environnement dans une démarche globale dont la finalité est de développer le sens des responsabilités vis-à-vis de soi-même, d’autrui et de l’environnement afin de contribuer à l’apprentissage de la citoyenneté.

      

      


1.1. De l’information sur les méfaits du tabac et plus largement des toxicomanies à une éducation à la santé s’inscrivant dans une perspective d’éducation globale et d’apprentissage de la citoyenneté.

      

      

       Le ministre de l’Education Nationale avait adressé en 1975, une circulaire aux Recteurs, Inspecteurs d’Académie et Inspecteurs de l’Education Nationale afin que les chefs d’établissements veillent à ce que les élèves fumeurs intègrent le principe de respect de la liberté d’autrui et comprennent qu’ils ne peuvent s’arroger le droit d’imposer aux autres dans les locaux collectifs « l’obligation de respirer malgré eux un air chargé de fumée de tabac ». Pour ce faire, le Ministre, René Haby estimait souhaitable « qu’une information objective soit donnée à ce sujet aux élèves de nos établissements d’enseignement ». (Circulaire du 02.06.1975)

      

      1.1.1 De l’information sur les méfaits du tabac à la lutte contre les toxicomanies et les conduites déviantes : la prévention des conduites à risques.

      

       Information sur les méfaits du tabac

      

       Cette information pourra prendre les formes les plus diverses, par exemple : projection de films, discussions animées par les professeurs et les maîtres à l’occasion de leur enseignement ainsi que par tous les membres des équipes éducatives. Les occasions d’évoquer cette question sont nombreuses, qu’il s’agisse des enseignements d’économie, de physiologie, d’histoire, d’éducation civique, de philosophie, d’éducation physique ou tout simplement des divers moments de la vie de l’établissement. » (circulaire du 02.06.1975)

      Les chefs d’établissements ont par la suite ( circulaire du 15.10.1975) été incités à faire préciser dans le règlement intérieur, par décision du Conseil d’Administration, les locaux où l’usage du tabac est interdit. La contribution attendue par le Ministre de la part des enseignants devait alors se traduire par leur exemple.

      La note de service 84.095 du 08.03.1984 concernant l’usage du tabac dans les établissements d’enseignement souligne «  l’importance primordiale que revêtent en la matière les actions de prévention susceptibles d’avoir une efficacité véritable par l’influence et l’impact profonds qu’elles peuvent avoir sur les jeunes élèves.» Mais là encore, c’est aux chefs d’établissements « de leur accorder une place privilégiée en sensibilisant les personnels de l’établissement au rôle qu’ils ont à jouer à cet égard.» L’éducation à la santé est alors présentée comme une « application pratique des enseignements dispensés dans beaucoup de disciplines. Les clubs Rencontre, vie et santé « fondés sur le volontariat peuvent permettre aux élèves de jouer un rôle actif et prendre l’initiative d’actions d’information et de sensibilisation aux problèmes que pose la consommation du tabac. »

      Mais au problème de santé scolaire que représente le tabagisme des élèves vient s’associer un autre, celui de la toxicomanie. En 1977, René Haby avait attiré l’attention des chefs d’établissements du second degré sur le « fléau social » que représente la toxicomanie et « la nécessité de lutter contre lui avec des armes adaptées à la nature et à la vie des établissements » dont ils ont la charge. (c. du 17.03.1977)

      

      

       Prévention des toxicomanies et des conduites déviantes par l’information.

      

       La politique du Ministère de l’Education nationale en matière de prévention des toxicomanies et des conduites déviantes a été définie par la circulaire n°88.287 du 27.07.1983. Des médiateurs choisis parmi ses proches collaborateurs par le Recteur ont un rôle d’impulsion, de coordination et d’évaluation de la lutte. En collaboration avec les chefs d’établissement, ils « apporteront beaucoup de soin à la désignation des personnes, parmi les volontaires qui constitueront les équipes relais.» (c. n°85.118 du 26.03.1985)

      « Il y a lieu de choisir, pour cette mission des personnes qui, par leurs qualités de contact, soient en mesure de répondre à la demande des jeunes, de façon à ce que les relations jeunes-adultes s’instaurent dans la confiance au sein de l’établissement. Mais leur rôle est tout autant de démultiplier leur action auprès de leurs collègues.» L’objectif étant d’apporter une aide aux collègues enseignants afin qu’ils ne se sentent pas « désécurisés » par la demande d’un élève qui vient les trouver et de faire face à la situation. Le premier volet de la « lutte » contre la toxicomanie en milieu scolaire est informatif. La note de service n°85.423 du 20.11.1985

      (M. Toulemonde) précise les procédures à suivre pour organiser l’information sur les drogues, insistant sur la nécessité d’une information régulière des personnels des établissements. Car «l’adulte convenablement averti et informé doit pouvoir comprendre les conduites toxicomaniaques, mais aussi chercher à déceler les consommations de drogues dans les établissements, dans la classe. Pour autant, comprendre, expliquer, n’est ni faiblir, ni manquer à son devoir, celui d’être un modèle, un censeur, un « adulte debout » qui aide au passage à une maturité consciente et responsableL’information doit néanmoins être restreinte car « pour la prévention des toxicomanies, une information trop large et indistincte peut être aussi nuisible que l’absence d’information. »...  «Il n’est pas souhaitable que le système éducatif prenne ici l’initiative d’aborder la question des drogues, mais il doit pouvoir répondre aux questions lorsqu’elles sont posées.» Les groupes de travail et réunion seront organisés « à la demande des élèves et avec l’accord du chef d’établissement. » Les « enseignants, les élèves intéressés et au moins un des membres du service social et de santé scolaire » devraient participer à ces séances de travail. Le chef d’établissement peut, si les circonstances locales lui paraissent l’imposer, prendre l’initiative d’une information sur les drogues auprès des élèves de son établissement. Il sollicitera, auparavant, l’avis du responsable académique chargé de ce secteur, qui nouera éventuellement les contacts nécessaires avec les équipes spécialisées agréées par le ministère des Affaires sociales et de la solidarité nationale et avec les représentants des autres ministères. Ces personnes, spécifiquement formées, pourront intervenir dans les établissements.» Dans ce cadre, « il convient d’observer la plus grande prudence dans le choix des intervenants extérieurs » et il est donc indispensable que toute proposition d’intervention soit soumise au médiateur.

      

       Quinze ans plus tard, la simple information sur les drogues semble inefficace en matière de prévention. Celle-ci ne «peut en aucun cas se réduire à la juxtaposition de quelques actions ponctuelles de sensibilisation ou d’information» Au contraire il est nécessaire de l’intégrer dans une démarche globale de promotion de la santé et de « développement du sens des responsabilités des élèves vis à vis d’eux mêmes comme vis à vis d’autrui. » (c. n°98.108 du 01.07.98)  

      

      

       Mise en place d’une politique éducative en matière de prévention des conduites à risque.

      

      

       En mars 1998, Segolène Royal, Ministre déléguée annonce un plan de relance de l’éducation à la santé au sein des établissements scolaires. Ce vaste programme comprend entre autre la prévention des conduites à risque, la création des Comités d’Education à la Santé et à la Citoyenneté dans tous les établissements, l’éducation sexuelle à l’école et au collège et les rencontres éducatives sur la santé au collège. « A l’heure où les problèmes économiques et sociaux engendrent des difficultés de tous ordres dans la vie quotidienne d’un grand nombre d’élèves, où les sollicitations à consommer des produits licites ou illicites sont de plus en plus fréquentes auprès des jeunes plus longtemps scolarisés, le rôle joué par l’école en matière de prévention des conduites à risque est primordial, notamment à l’adolescence, au moment où la personnalité se structure. » Ainsi, « la prévention fait partie intégrante de la mission éducative » et la « responsabilité de l’ensemble des personnels de l’éducation nationale est pleinement engagée dans ce devoir de prévention. Quelle que soit sa fonction, tout adulte membre de la communauté éducative est impliqué dans cette responsabilité collégiale, respectant certes la compétence de chacun, mais nécessitant collaboration et solidarité. » Les activités d’enseignement comme l’ensemble des activités auxquelles participent les élèves concourent à un tel projet. Les enseignants doivent accorder « la plus grande importance » à tout ce qui développe autonomie et sens de responsabilité des élèves. La prévention des conduites à risque doit s’intégrer dans le projet d’école ou d’établissement. En effet, le projet éducatif dans lequel doivent s’inscrire les actions de prévention prend forcément en compte la santé globale des élèves et le « développement progressif de leur responsabilité citoyenne ».

      

      

      

      

      

       Nécessité de former les enseignants

      

       Afin que le personnel s’investisse dans cette prévention, « un effort particulier d’information et de formation initiale et continue des personnels est nécessaire. L’information ne suffit plus, les formations multicatégorielles conduites sur sites, associant les personnels des autres ministères semblent être les plus efficaces pour apporter aux adultes « des connaissances techniques dans le domaine de la prévention mais aussi des informations sur l’adolescence et les relais possibles dans l’environnement de l’établissement. De même la formation initiale des enseignants et CPE se doit de prendre en compte les problèmes de prévention des conduites à risque:

       _ « en assurant une information et une sensibilisation à ces questions dans le cadre de formation présentes dans tous les plans de formation portant sur l’éducation à la santé, la connaissance de la psychologie et la physiologie de l’enfant et de l’adolescent, la connaissance de l’environnement et la diversité des élèves,

       _ en les préparant à être des relais d’information et de communication efficaces, à être vigilants sur ce type de risques et à travailler en étroite liaison avec les autres personnels de l’établissement et les partenaires extérieurs. »

      

      Mais la circulaire du 01.07.1998 annonce surtout un nouveau volet de la lutte contre les conduites à risque à savoir la mise en place dans tous les établissements scolaires d’un Comité d’Education à la Santé et à la Citoyenneté (CESC)

      

      

      Implanter dans chaque établissement un nouvel outil : le Comité d’Education à la Santé et à la Citoyenneté.

      

       Présidé par le chef d’établissement, le C.E.S.C. associe l’ensemble de la communauté éducative. La participation des élèves étant primordiale, ils doivent être associés aux actions menées en matière de prévention (choix, élaboration des actions et diffusion de l’information). Les missions du C.E.S.C. se déclinent en six axes:

       1. contribuer à la mise en place de l’éducation citoyenne dans l’école ou l’établissement en rendant l’élève responsable, autonome et acteur de prévention,

       2. organiser la prévention des dépendances, des conduites à risque et de la violence dans le cadre du projet d’établissement,

       3. assurer le suivi des jeunes dans et hors l’école : le C.E.S.C. permet aux membres de la communauté éducative de prendre en charge les problèmes en concertation, de faire appel aux compétences de personnels spécialisés en interne (médecins, infirmier(e)s, assistants sociaux), ou à des relais extérieurs,

       4. venir en aide aux élèves manifestant des signes inquiétants de mal être : usage de produits licites ou illicites, absentéisme, désinvestissement scolaire, repli sur soi, conduites suicidaires....

       5. renforcer les liens avec les familles,

       6. apporter un appui aux acteurs de la lutte contre l’exclusion en renforçant les liens entre l’établissement, les parents les plus en difficulté et les autres partenaires concernés (comme la loi d’orientation relative à la lutte contre les exclusions le prévoit).

      

      « Le C.E.S.C. développe une démarche de projet qui suppose l’analyse de la situation de l’établissement et de son environnement, des problèmes, des ressources, des capacités d’initiative, des compétences à développer et la définition d’objectifs opérationnels. » Les Comités d’Education à la Santé et à la Citoyenneté remplacent les Comités d’Environnement Social créés en 1990 et prioritairement installés dans les collèges et ayant vocation à une prise en charge des besoins des jeunes dans et hors l’école. La mise en place d’un C.E.S. étant une démarche volontaire soumise au vote du conseil d’administration, seuls 33 % de l’ensemble des établissements avaient en 1998 mis en place de tels dispositifs, 1/3 d’entre eux n’avaient pas de réelle activité, 40 % fonctionnaient sans élèves et dans 10 % les enseignants n’étaient pas représentés. La circulaire du 01.07.1998 vise donc à réorienter ces dispositifs en les généralisant à l’ensemble des établissements du secondaire et en élargissant leurs missions puisqu’ils ont également vocation à développer des attitudes et des comportements de citoyens responsables et tolérants, acteurs de prévention. Reste que la généralisation des C.E.S.C. repose toujours sur une stratégie volontariste, dépendant des I.E.N. et des chefs d’établissement mais aussi de l’efficacité du pilotage académique. En effet les groupes de pilotage académique ont pour rôle de :

      

      _ « définir la politique académique à partir des orientations nationales,

      _ sensibiliser et conseiller les chefs d’établissement pour développer les C.E.S.C.,

      _ organiser la formation des équipes d’établissement par un groupe de formateurs clairement identifiés,

      _ instruire et financer les projets des établissements,

      _ accompagner les établissements dans leur démarche d’évaluation. »

      

      Réussiront-ils à impliquer l’ensemble de la communauté éducative et notamment les enseignants dans cette démarche de projet ?

      

       Les conduites à risque ne se limitent pas aux toxicomanies et aux comportements violents mais concernent également la vie sexuelle des élèves. L’Education Nationale affirme avoir un rôle spécifique et complémentaire de celui des familles à tenir dans l’éducation à la sexualité des élèves qui lui sont confiés. Les problèmes rencontrés: violences sexuelles, grossesses non désirées, I.V.G., M.S.T. .... par les jeunes nécessitent d’être pris en compte dans un processus éducatif global.

      

      

      

      1.1.2. L’éducation sexuelle en milieu scolaire : évolution

      

      

       « Apprendre aux jeunes à devenir des citoyens responsables, leur faire prendre conscience des grands problèmes de société, notamment ceux auxquels ils peuvent être confrontés dès l’adolescence, telle est bien la mission de l’école, l’une des plus belles, sans doute la plus difficile. » (c n°89.119 du 18.05.1989)

      

      

       Ecole et prévention des M.S.T.

      

       Concernant la prévention en matière des M.S.T. et notamment du SIDA, la circulaire n° 89.119 du 18.05.1989, l’école « ouverte sur le monde » reconnaît avoir le devoir d’informer les jeunes dès lors qu’apparaissent des problèmes de santé publique nouveaux et graves et de les préparer à des choix et à des comportements conscients et libres. « La présentation des problèmes de santé publique, des facteurs et des risques qui peuvent naître du rapport à autrui, l’apprentissage et la maîtrise de cette relation dans l’affirmation de soi et le respect de l’autre constituent un domaine important et délicat de l’éducation. Certes, des enseignements portant sur la reproduction humaine, la contraception, les maladies sexuellement transmissibles et leur prévention trouvent déjà place dans le cursus scolaire. Les élèves des lycées, lycées professionnels et élèves de 3e des collèges, parce qu’ils sont exposés à divers risques et notamment celui du SIDA, doivent toutefois recevoir en plus, une information suivie de discussions sur l’ensemble de ces matières, non plus traitées comme des enseignements, mais qui devront constituer le point de départ d’une réflexion commune sur les démarches de prévention à entreprendre ».

      

      

      La démarche retenue pour la rentrée 1989, consiste en l’organisation d’entretiens devant se dérouler «dans un climat de confiance et de sincérité» entre les élèves de 3e de collège et ceux de lycées et des « adultes qualifiés », dans un lieu approprié, suffisamment accueillant pour que les élèves s’y sentent en confiance et puissent s’exprimer. Ces «points de rencontre» devront favoriser l’écoute et le dialogue, dans le but de faciliter l’expression des jeunes et d’accompagner leur réflexion. Une « cellule de réflexion et de programmation des actions » sera mise en place dans chaque établissement, à l’initiative du chef d’établissement agissant en liaison avec l’inspecteur d’académie, afin de définir au mieux les objectifs de ces actions. « Elle comprendra des enseignants volontaires, le conseiller d’éducation, les personnels sanitaires et sociaux ainsi que des représentants des élèves .» Dans ce cadre, des stages de formation continue pluridisciplinaire seront inscrits au Plan Académique de Formation. Ils seront destinés aux membres des cellules de réflexion. « Cette formation doit valoriser le travail d’équipe. Elle sera principalement axée sur la communication et fera place à la sociologie et à la psychologie collective et individuelle, plus particulièrement celle des adolescents confrontés aux problèmes de société. Il conviendra en outre de sensibiliser les participants aux méthodes de programmation et d’évaluation. »

      

      En 1992, J. Lang (note de service du 26.06.1992) s’adresse aux recteurs afin d’appeler « chaque éducateur à considérer qu’en cette circonstance (l’apparition récente du SIDA, l’extension de la maladie, la gravité et la rapidité de son évolution), c’est la vie de nos élèves qui est en jeu »... Malgré la gravité de ce message et l’importance de son enjeu, en cette fin de siècle (c. n° 96.100 du 15.04.1996, Prévention du SIDA en milieu scolaire : éducation à la sexualité), « le SIDA apparaît toujours comme un problème majeur de santé publique. » Et « dans ce contexte, la contribution propre de l’Education Nationale porte sur le développement de l’éducation sexuelle à l’école. » Or, l’information sexuelle mise en place en 1973 (c. du 23.07) et intégrée dans les enseignements de biologie ou d’E.F.S. « n’a pas toujours pu avoir la portée éducative nécessaire. Par ailleurs l’organisation de séances complémentaires se heurtant à l’insuffisance de modalités spécifiques et de formation appropriée n’a été que rarement mise en oeuvre. » De même, les entretiens préconisés par la circulaire du 18.05.1989 relative à la prévention en matière de santé et notamment du SIDA ne se sont pas généralisés.

      « C’est pourquoi le ministère de l’éducation nationale, qui a d’abord répondu à l’urgence des premières années en engageant une démarche d’information et de prévention auprès des élèves, doit aujourd’hui adapter sa politique d’éducation aux réalités qu’impose cette épidémie à la société actuelle. En effet, le bilan des actions menées auprès des jeunes, d’une part, et les attentes de plus en plus précises à l’égard de l’école, d’autre part, expriment clairement la nécessité d’inscrire la prévention du SIDA dans un projet éducatif à long terme. Ce projet est indissociable d’une réflexion sur l’éducation sexuelle et la formation qu’elle requiert ; une prévention efficace du SIDA et, plus largement, des maladies sexuellement transmissibles, des abus sexuels ou encore des grossesses non désirées, ne peut éviter cette réflexion. »

      Dans sa chronique journalière de 07h51 à France Inter, Martin Winckler (Docteur en Médecine) a relaté le 04 mars une expérience éducative menée en Scandinavie. Celle-ci a montré que parler de sexualité très tôt ne conduit pas à des rapports sexuels précoces au contraire. Plus un adolescent est au fait de la sexualité et en particulier de son importance pour le développement affectif et psychologique de l’individu, moins il expérimente aveuglément, moins il prend de risque et plus il respecte son ou ses partenaires.

      

      

       De la nécessité de développer une véritable éducation à la sexualité et à la responsabilité individuelle et sociale (c. 96-100 du 15.04.1996)

      

       « Les objectifs sont de prévenir les comportements à risques mais, surtout, de faire évoluer les attitudes de fond qui sont à l’origine de ces comportements et de contribuer à l’épanouissement personnel. »

      Le rôle de l’école, complémentaire à celui des familles doit viser à « donner aux jeunes l’occasion de ressaisir et de s’approprier, dans un contexte plus large que celui de la famille, les données essentielles de leur développement sexuel et affectif. Cet apprentissage leur permettrait notamment de mieux faire face à la multiplicité des messages médiatiques et sociaux qui les assaillent quotidiennement. » « Dans ce cadre, l’éducation à la sexualité a pour principal objet de fournir aux élèves la possibilité de connaître et de comprendre ces différentes dimensions de la - et de leur - sexualité, dans le respect des consciences et du droit à l’intimité. Cette éducation, qui se fonde sur les valeurs humanistes de tolérance et de liberté, du respect de soi et d’autrui, doit en outre les aider à intégrer positivement des attitudes de responsabilité individuelle et sociale. Les enseignements de biologie, ainsi que ceux de vie sociale et professionnelle pour les classes concernées occupent une place importante dans ce domaine. Ils procurent aux élèves les bases scientifiques - connaissances et raisonnements - qui permettent de comprendre les phénomènes biologiques et physiologiques mis en jeu. Ce faisant, ils préparent à adopter des attitudes responsables et à prévenir les risques. Aussi, il importe que les professeurs de biologie-géologie et de biotechnologie - santé et environnement - apportent, de la sixième à la troisième, le plus grand soin à traiter notamment les parties des programmes relatives à la reproduction et à la transmission de la vie, à la contraception, aux maladies sexuellement transmissibles et particulièrement au SIDA. Ces sujets sont abordés avec le souci constant d’établir un lien entre leurs contenus scientifiques et leurs implications humaines. D’autres enseignements offrent aussi dans leurs contenus des possibilités de participer à l’éducation à la sexualité. L’éducation à la sexualité ne doit pas se limiter à la seule composante physiologique mais « exige la prise en compte des dimensions psychologiques, affectives, socioculturelles et morales qui, seules, permettent un ajustement constant aux situations vécues des hommes et des femmes, dans leurs rôles personnels et sociaux. »

      

       En collège, des séquences d ’éducation à la sexualité de 2 h minimum doivent offrir un cadre favorisant le dialogue et la réflexion, permettant d’intégrer les apports des enseignements (S.V.T., V.S.P.) et de les compléter afin d’atteindre les objectifs éducatifs recouvrant les trois dimensions individuelle, relationnelle et sociale participant à la construction de l’individu. A savoir :

      

       1. Image de soi

      Construire une image positive de soi-même et de la sexualité comme composante essentielle de la vie de chacun

      

      

      

       2. Dimensions de la sexualité humaine

      Apprendre à identifier et à intégrer les différentes dimensions biologiques, affectives, psychologiques, juridiques, sociales et éthiques.

      

       3. Relation à l’autre

      Analyser la relation à l’autre dans ses composantes personnelles et sociales, à partir de connaissances précises de chaque sexe.

      

       4. Droit à la sexualité et tolérance

      Comprendre qu’il puisse y avoir des comportements sexuels variés sans penser de ce fait qu’on les encourage parce qu’on les comprend (délimitation entre la tolérance et l’encouragement).

      

       5. Exercice du jugement critique

      Adopter une attitude critique sur les stéréotypes en matière de sexualité visant notamment à dépasser les représentations exagérément idéalisées, irrationnelles et sexistes.

      

       6. Attitude de prévention

      Adopter des attitudes responsables et des comportements préventifs, en particulier en ce qui concerne les abus et l’exploitation sexuels, les maladies sexuellement transmissibles et le SIDA, les grossesses non désirées.

      

       7. Education à la responsabilité

      Intégrer positivement des attitudes de responsabilité individuelle et sociale fondée notamment sur les valeurs humanistes du respect de soi et d’autrui, préparant à des choix lucides dans le domaine de la sexualité.

      

      « Les séquences d’éducation à la sexualité sont prises en charge dans l’établissement par une équipe de personnes volontaires, constituée avec un souci de pluralité, associant autant que possible enseignants et personnels d’éducation, sociaux et de santé, de préférence du collège, formés à cet effet. La planification des séquences est assurée sous la responsabilité du principal, par l’équipe pédagogique de la classe, élargie à des membres de l’équipe ci-dessus. »

      « Les enseignants des disciplines concernées, notamment ceux de biologie-géologie et de vie sociale et professionnelle (ou d’économie sociale et familiale), seront préparés, lors de leur formation initiale, à concevoir leur enseignement de manière à lui donner toute sa portée éducative, dans ce domaine et plus généralement en matière d’éducation à la santé. Des stages de formation continue, disciplinaires ou pluridisciplinaires, leurs seront proposés avec le même objectif ».

      Les personnels des établissements appelés à prendre en charge les séquences complémentaires d’éducation à la sexualité en collège sont volontaires et doivent avoir suivi des stages organisés par la MAFPEN. « Ces stages doivent intégrer des connaissances d’ordre biologique, socioculturel, psychologique, juridique et des réflexions d’ordre éthique, comporter une formation concrète aux méthodes et pratiques pédagogiques impliquant l’activité des élèves susceptibles d’être utilisées et préparer les stagiaires à travailler en équipe et en cohérence avec les autres actions de formation dans l’établissement, contribuant à l’éducation à la sexualité. »

      

      Dans sa circulaire 98-234 du 19.11.1998, B. Toulemonde, Directeur de l’enseignement scolaire reprend mot pour mot le texte de la circulaire 96-100 du 15.04.1996 sans y faire référence (la c. 98-234 abroge et remplace la c. 73-299 du 23.07.73). Seuls quelques détails différent. B. Toulemonde fait référence aux rencontres éducatives sur la santé (c. n° 98-237 du 24.11.1998) auxquelles doivent s’intégrer les séquences d’éducation à la sexualité. Dans ce cas « des intervenants extérieurs qualifiés pourront intervenir, à la demande et sous la responsabilité du chef d’établissement. » Mais, « ces interventions s’inséreront dans le cadre de programmation et de la progression définie par l’équipe éducative en charge des séquences, et viendront en complément des interventions des membres de celle-ci. »

      Dans la formulation des objectifs spécifiques, « respect de l’autre » remplace « tolérance » (cf. objectif 4) et l’accent mis sur la différence entre tolérance et encouragement est supprimée. L’objectif 6 « attitude de prévention » est élargi à l’apprentissage de la connaissance et de l’utilisation des ressources spécifiques existantes dans et à l’extérieur de l’établissement dans le cadre d’une démarche personnelle. Enfin l’« éducation à la responsabilité » (objectif 7) doit s’exercer également sur le plan familial.

      Au sein de chaque académie un réseau de formateurs s’est constitué et c’est aux recteurs de veiller « à ce que les réseaux de formateurs soient en mesure de répondre aux besoins de tous les collèges de leur académie. »

      

      Afin d’aider les personnels responsables de la formation et de la mise en oeuvre des actions d’éducation à la sexualité dans les établissements scolaires, le Ministère de l’Education Nationale « conscient des interrogations des personnels - mais aussi des familles concernant notamment le rôle de l’école et ses limites dans ce domaine, et soucieux de leur apporter des éléments de réflexion et de discussion, a souhaité réaliser un document d’appui. » Ce document a été élaboré par la Direction de l’enseignement scolaire en septembre 2000 et s’intitule: « Repères pour l’éducation à la sexualité et à la vie ».

      

      

       Adapter les priorités de l’éducation à la sexualité aux réalités de la société actuelle: un enjeu pour le 21 ème siècle.

      

      

       Six groupes de travail ont été constitués au début de l’année 1999 afin de « mener une réflexion élargie sur l’éducation à la sexualité, de définir les priorités adaptées aux réalités de la société actuelle et de déterminer les principes et les modalités essentiels de cette action éducative et de la formation qu’elle requiert. Cinq grands axes ont été retenus :

      

       _ 1. « l’éducation à la sexualité est reconnue comme une nécessité dans le premier comme dans le second degré par le système éducatif, les parents, les associations. Si d’une part, elle prend appui sur les apports des enseignements (sciences de la vie et de la terre, vie sociale et professionnelle, éducation à la citoyenneté), elle nécessite d’autre part une démarche spécifique afin, certes, de prévenir des comportements à risques mais aussi de permettre aux adolescents d’intégrer positivement des attitudes de responsabilité individuelle familiale et sociale,

      

       _ 2. Elle implique une clarification des concepts, des valeurs et des objectifs qui

       fondent sa légitimité en milieu scolaire. L’école, lieu de transmission des savoirs et d’éducation, constitue aussi un espace de socialisation. Elle se doit de favoriser l’apprentissage des règles sociales, la construction du sujet autonome, la possibilité de faire des choix et d’exercer sa responsabilité. L’éducation à la sexualité, qui met en jeu la relation à soi et à l’autre, contribue de manière spécifique à ce processus éducatif global,

      

       _ 3. L’éducation à la sexualité doit tout particulièrement permettre de renforcer:

       _ l’estime et le respect de soi et des autres,

       _ l’apprentissage de valeurs communes et des règles sociales,

       _ la compréhension et l’acceptation des différences,

       _ la connaissance et le respect des lois et des interdits,

       _ le développement de l’esprit critique.

      

       _ 4. Ce projet est indissociable d’une réflexion et d’une formation appropriée. Afin de développer une culture commune, la démarche de formation requise doit intégrer des principes axés pour l’essentiel sur la relation éducative, les normes et les valeurs laïques ainsi que le rôle et les limites de l’école. Ce dernier point met l’accent sur une indispensable réflexion concernant la délimitation entre espace privé et espace public, afin que soient garantis le respect de l’intimité et de la vie privée.

      

       _ 5. Enfin, s’il paraît indispensable d’impulser la collaboration entre les différents personnels de la communauté éducative et, notamment entre personnels de santé, sociaux, éducatifs et enseignants autour d’un projet commun associant les parents, il paraît tout aussi important de développer un travail en réseau et en complémentarité avec les partenaires locaux et associatifs, dans le respect des procédures en vigueur. Ce partenariat s’avère essentiel dans le cadre de la prise en charge, du suivi, de l’accompagnement des situations difficiles. »

      

      La loi du 04.07.2001 sur l’interruption volontaire de grossesse et la contraception a complété le code de l’éducation en prescrivant qu’ « une information et une éducation à la sexualité seraient dispensées dans les écoles, collèges et lycées à raison d’au moins 3 séances annuelles par groupes d’âge homogène, séances animées par des volontaires : enseignants, médecins, infirmières scolaires, personnes extérieures ou élèves formés. La circulaire du 17.02.2003 réaffirme que «dans le cadre de sa mission d’éducation et en complément du rôle de premier plan joué par les familles, l’école a une part de responsabilité à l’égard de la santé des élèves et de la préparation à leur future vie d’adulte : l’éducation à la sexualité contribue de manière spécifique à cette formation dans sa dimension individuelle comme dans son inscription sociale. » Compte tenu de « l’évolution des mentalités, des comportements, du contexte social, juridique et médiatique dans le domaine de la sexualité, ainsi que des connaissances scientifiques liées à la maîtrise de la reproduction humaine », les pouvoirs publics ont été conduits « à développer l’éducation à la sexualité en milieu scolaire comme une composante essentielle de la construction de la personne et de l’éducation du citoyen. » «Cette démarche est d’autant plus importante qu’elle est à la fois constitutive d’une politique nationale de prévention et de réduction des risques - grossesses précoces non désirées, infections sexuellement transmissibles, VIH/ sida - et légitimée par la protection des jeunes vis-à-vis des violences ou de l’exploitation sexuelles, de la pornographie ou encore par la lutte contre les préjugés sexistes ou homophobes. » L’éducation à la sexualité à l’école intègre aux connaissances biologiques « tout autant, sinon plus, une réflexion sur les dimensions psychologiques, affectives, sociales et éthiques.» ( éthiques remplace morales ) Les « valeurs humanistes de tolérance et de liberté, du respect de soi et d’autrui » sont des « valeurs communes » qu’il faut affirmer à l’école. Les objectifs fixés sont sensiblement ceux fixés par les circulaires du 15.04.1996 et du 19.11.1998, auxquelles la circulaire du 17.02.2003 fait référence. « Au sein des écoles et des établissements scolaires, tous les personnels, membres de la communauté éducative, participent explicitement ou non, à la construction individuelle, sociale et sexuée des enfants et adolescents. En effet, en toutes circonstances, dans les différents espaces des écoles et des établissements (salles de classe, de cours ou d ’activité, lieux d’accueil ou de récréation, espaces de circulation, vestiaires, restaurant scolaire...), tout adulte de la communauté éducative contribue à réguler les relations interindividuelles et à développer chez les élèves des savoir-être tels que le respect de soi et de l’autre ou l’acceptation des différences. Ces pratiques éducatives impliquent une nécessaire cohérence entre les adultes participant au respect des lois et des règles de vie en commun qui s’exercent aussi bien dans le cadre de la mixité, de l’égalité, que de la lutte contre les violences sexistes et homophobes contraires aux droits de l’homme. Au-delà de ces situations quotidiennes, il est nécessaire d’organiser un travail pluridisciplinaire s’appuyant sur les compétences complémentaires des divers personnels, inscrit dans le projet d’école et le projet d’établissement, voire inséré dans une politique d’établissement. » « Les enseignements scientifiques liés aux sciences de la vie occupent une place spécifique mais non exclusive dans ce domaine. » En effet, « dans ces enseignements, à tous les niveaux, les programmes des différents champs disciplinaires - tels que la littérature, l’éducation civique, les arts plastiques, la philosophie, l’histoire, l’éducation civique juridique et sociale...- offrent dans leur mise en oeuvre, l’opportunité d’exploiter des situations, des textes ou des supports en relation avec l’éducation à la sexualité selon les objectifs précédemment définis. » « En lien avec les connaissances acquises à travers les programmes scolaires aux différents niveaux, il est nécessaire de concevoir une continuité éducative tenant compte des questionnements et de la maturité des élèves. A cette fin, trois séances d’information et d’éducation à la sexualité doivent, au minimum, être organisées dans le courant de chaque année scolaire. »

      « Au collège et au lycée, le chef d’établissement établit en début d’année scolaire les modalités d’organisation et de planification de ces séances, inscrites dans l’horaire global annuel des élèves, garantissant ainsi la mise en oeuvre et la cohérence de ce dispositif, qui sera intégré au projet d’établissement et présenté au conseil d’administration. Pour les lycées, il fera également l’objet d’un débat au conseil de la vie lycéenne. » ... « La mise en oeuvre de l’éducation à la sexualité, dans le premier comme dans le second degré, doit donc s’appuyer sur une véritable démarche de projet qui permet à la fois :

      _ d’informer et/ou d’associer les parents d’élèves,

      _ de garantir la cohérence et la coordination des différents apports,

      _ de susciter un travail inter catégoriel,

      _ d’assurer, le cas échéant, le cadrage d’intervention de partenaires extérieurs. »

      « Les séances d’éducation à la sexualité peuvent être l’occasion de susciter chez certains élèves des questionnements d’ordre privé ou encore de révéler des difficultés personnelles. Celles-ci ne doivent pas être traitées dans un cadre collectif mais relèvent d’une prise en compte individuelle de l’élève et d’une relation d’aide qui, dans les écoles et les établissements scolaires, peut s’appuyer sur tout adulte de la communauté scolaire susceptible d’apporter une écoute et d’être un relais, et plus particulièrement sur les compétences spécifiques des personnels de santé et sociaux. »... « Ainsi certains élèves traversant des difficultés personnelles nécessitant un entretien individuel seront orientés s’ils le souhaitent, soit vers les personnes ressources de l’établissement - personnels de santé et sociaux- soit vers des structures extérieures spécialisées. »

      « Au collège et au lycée, ces séances sont prises en charge par une équipe de personnes volontaires, constituée avec un souci de pluralité, associant autant que possible, dans la logique du projet d’établissement, enseignants et personnel d’éducation, sociaux et de santé, formés à cet effet. Il peut être fait appel à des interventions extérieures, dans le respect des procédures en vigueur.» ... « Par ailleurs, si la mise en oeuvre de partenariats est susceptible d’étendre les ressources de l’école en mobilisant des compétences spécifiques complémentaires, elle permet aussi de disposer de ressources et relais extérieurs à l’école. Ainsi les lieux d’information, de consultation et de conseil conjugal et familial, les centres de documentation spécialisés, les espaces d’écoute jeunes, les services téléphoniques, dispensent un accueil personnalisé, une orientation, des informations sur la sexualité, la contraception, la prévention des MST et du sida, les violences sexuelles, accessibles aux élèves des collèges et des lycées. Les personnels des établissements scolaires doivent assurer la diffusion de ces informations notamment en mettant à disposition des élèves des dépliants et un espace d’affichage sur les structures locales et les numéros verts. Cette démarche sera accompagnée dans le cadre des séances d’éducation à la sexualité. »

      La formation initiale et continue des personnels « doit permettre la constitution d’équipes aux compétences partagées, susceptibles d’analyser dans leur contexte, les besoins des élèves, de construire une démarche globale et progressive d’éducation adaptée à l’école ou l’établissement scolaire. » La formation continue privilégiera « les interventions sur site aidant en cela la constitution des équipes éducatives. »..  « En effet, une politique de formation efficace, en un domaine qui exige de concilier savoirs, éthique, culture, respect des personnes suppose à tout le moins que soit pris en compte la dimension pluricatégorielle de l’encadrement des séances d’éducation à la sexualité. Ainsi professeurs des écoles, enseignants de science de la vie et de la terre, de vie sociale et professionnelle, conseillers principaux d’éducation, médecins, infirmières, assistants de service social apportent en particulier, chacun pour ce qui le concerne, leur contribution à un projet défini en commun dans ses objectifs et ses résultats. » (Il est à souligner que contrairement à la circulaire du 19.11.1998, celle-ci ne précise pas les contenus de formation ni les compétences à développer pour chacun des membres de l’équipe.)

      (J.P. de Gaudemar, Directeur de l’enseignement scolaire, circulaire 2003-027, B.O.E.N. n°9, 27.02.2003)

      

      

      En mars 2002 Macher Sery dans un article du Monde de l’éducation intitulé : « Après la pilule, le mode d’emploi ? » dressait le bilan de la formation des personnels de l’Education Nationale à l’éducation sexuelle : « En cinq ans, depuis 1997, 216 formateurs ont été formés à l’éducation sexuelle. Et 10260 personnes ont suivi d’une à cinq journées de stage, principalement des infirmières et des médecins, mais aussi des enseignants. Pour autant, à l’heure actuelle, faute de créneaux horaires et d’adultes volontaires pour ces interventions qui ne constituent pas une discipline au sens strict, la situation augure mal de la généralisation des trois séquences d’éducation à la sexualité du primaire à la terminale. » Elle dénonce également le temps de latence nécessaire à une généralisation de cette éducation à la sexualité : «Un tel dispositif prendra bien dix ans avant de concerner tous les élèves, reconnaît-on au ministère qui prévoit une entrée en vigueur pour le lycée à la rentrée. Rien ne prédit cependant qu’il verra bien le jour dans les faits et ne passera pas aux oubliettes des programmes à boucler en temps et en heure, dans l’optique du baccalauréat. » (Séry, Mars 2002, p 48,49 )

      

      

      

      Ainsi, l’éducation à la sexualité s’inscrit plus globalement dans l’éducation à la santé, celle-ci visant à prévenir les comportements à risques mais aussi à permettre aux adolescents d’intégrer positivement des attitudes de responsabilité individuelle, familiale et sociale. C’est pour atteindre ces objectifs que le plan de relance concernant la promotion de la santé dans les établissements scolaires est accompagné d’une circulaire (c. n° 98.237 du 24.11.1998) fixant les orientations pour l’éducation à la santé à l’école et au collège. « L’évolution des missions confiées à l’école implique que la place de l’éducation à la santé soit réaffirmée, non seulement dans les enseignements mais aussi à travers l’ensemble des activités éducatives. »

      

      

      1.1.3. Promouvoir l’éducation à la santé en milieu scolaire ( c. n° 98.237 du 24.11.1998)

      

       L’éducation à la santé doit commencer dès la maternelle et s’inscrire dans un projet éducatif global. Elle ne se limite pas à un simple discours sur la santé ni à un apport d’informations isolées. Elle a pour finalité d’aider chaque jeune à s’approprier les moyens d’opérer des choix (par l’appropriation de connaissances utiles pour comprendre et agir mais aussi la maîtrise des méthodes de pensée et d’action) et d’adopter des comportements responsables, pour lui-même comme vis à vis d’autrui et de l’environnement (par le développement d’attitudes, telles que l’estime de soi, le respect des autres, la solidarité, l’autonomie, la responsabilité). « Elle permet ainsi de préparer les jeunes à exercer leur citoyenneté avec responsabilité, dans une société où les questions de santé constituent une préoccupation majeure. »

      

      

      

       Une contribution nécessaire de tous les enseignants

      

      Tout enseignant à l’école comme au collège, contribue de manière plus ou moins spécifique à l’éducation à la santé selon l’enseignement dispensé quelque soit la matière au sens des missions définies pour les professeurs du second degré (c. du 23.05.1997). Même si, certaines disciplines contribuent directement conformément à leur programme à développer des connaissances en rapport avec la santé. Ces connaissances devant être reliées à des situations concrètes afin de faciliter la participation active des élèves à leur construction de manière à répondre à la finalité éducative de ces disciplines. Quant aux autres disciplines, elles peuvent mettre en oeuvre des activités, exploiter des situations, des textes ou des supports utiles pour l’éducation à la santé.

      

      Le concours de tous les enseignants est souhaité afin de collaborer aux différentes actions des services de santé « de manière à ce que les élèves soient en mesure d’en comprendre le sens. » Les enseignants peuvent s’impliquer encore davantage dans l’éducation à la santé lors de l’élaboration du projet d’établissement et au sein des Comité d’Education à la Santé et à la Citoyenneté, mais aussi au collège dans les rencontres éducatives sur la santé.

      

      

       Un nouvel outil pour le collège: les rencontres éducatives sur la santé

      

       « Les rencontres éducatives permettent de renforcer, en les mobilisant, les acquis des enseignements, dans le cadre d’une formation plus globale. A travers ces rencontres, il s’agit :

       _ de favoriser un dialogue organisé et ouvert entre élèves, mais aussi entre adultes et élèves,

       _ de privilégier des objectifs liés au développement d’attitudes, à une réflexion sur les normes et les valeurs, sur le rapport à la loi et à la règle, etc...,

       _ d’impulser la nécessaire collaboration entre tous les adultes de la communauté éducative, notamment entre personnels de santé, sociaux et enseignants. »

      « Le but est d’aider les élèves à réfléchir et à s’investir, individuellement et collectivement, en utilisant leurs acquis, à propos de situations en rapport avec la santé, vécues ou présentées sous forme de témoignages, d’enquêtes, de films ou d’autres documents. » Les situations retenues, en cohérence avec les programmes, doivent être choisies parmi les questions relatives notamment à l’alimentation, à la motricité et à la posture, à la sécurité, à la prévention des accidents et aux premiers secours, à la sexualité, à l’environnement, à des sujets de société (consommations nocives, violence, dépression); il est toutefois nécessaire de les exploiter de manière progressive et sans recherche d’exhaustivité, en privilégiant une approche globale et positive de la santé. Mais elles doivent aussi être «  en rapport avec l’âge, le milieu de vie, l’expérience, les besoins et les intérêts des élèves. Le recours à des situations motivantes, à l’origine de questionnements plus fertiles, est préférable à l’utilisation de questionnaires qui peuvent être source de nombreux lieux communs. »

      Les missions et obligations dévolues aux adultes (dont les enseignants) qui encadrent les rencontres sont précisées: « Les adultes qui encadrent les rencontres guident les élèves (choix des situations et des projets, recherche des documents et des sources, organisation des activités, individuelles ou en équipes...). Ils veillent au développement d’un dialogue authentique, qui ne saurait se réduire à un échange de questions-réponses. Dans un esprit de valorisation, ils prévoient des évaluations adaptées et entraînent les élèves à une auto-évaluation. »

      

      

       Faire appel à des partenaires extérieurs

      

       Comme dans le cadre des Comités d’Education à la Santé et à la Citoyenneté, l’école est naturellement appelée à faire appel à des partenaires extérieurs (autres services de l’état, collectivités locales, organismes, associations,...). L’intervention de ces partenaires est placée sous la responsabilité des établissements et s’effectue toujours au sein d’un travail d’équipe, en présence et avec la collaboration des personnels de l’Education Nationale. La vigilance à l’égard des associations reste indispensable mais l’intervention est placée sous la responsabilité des établissements (un certain nombre d’associations sont agréées par le Conseil national des associations éducatives complémentaires de l’enseignement public ou par les conseils académiques). Mais attention, en aucun cas le recours à l’intervention de partenaires extérieurs, ne peut être le prétexte à un désengagement des personnels de l’établissement de ses responsabilités intrinsèques dans le domaine de l’éducation à la santé.

      

      

       La formation des personnels : moyen essentiel pour promouvoir la généralisation de l’éducation à la santé en milieu scolaire.

      

      Les enseignants doivent être formés à prendre en compte dans leur activité professionnelle les méthodes et les objectifs de l’éducation à la santé et à s’inscrire dans une démarche de projet éducatif. Les formations « peuvent s’organiser à partir de la compréhension et de la connaissance de l’enfant et de l’adolescent sur des thèmes tels que l’alimentation, la sexualité, le respect du corps, les toxicomanies.. » en « privilégiant les méthodes par rapport aux contenus spécialisés. » Pour ce faire, il est nécessaire de développer les équipes académiques de formateurs de catégories différentes qui interviendront conjointement auprès d’un public pluricatégoriel.

      

      

      L’éducation Santé s’inscrit ainsi dans une éducation globale en permettant l’apprentissage de ce que Bernard Kouchner appelle « le civisme sanitaire », c’est à dire une citoyenneté active et responsable appliquée à la santé et que nous devons traduire dans notre vie de tous les jours. L’éducation à l’Environnement contribue elle aussi aux transformations des attitudes et des comportements en permettant aux élèves de prendre conscience de leur responsabilité individuelle et collective dans la préservation et l’évolution de l’environnement donc en développant « le civisme à l’égard de l’environnement » ou «l’éco-citoyenneté ».

      

      

      

      

      


1.2. De la découverte du milieu à la sensibilisation à la responsabilité individuelle et collective, à l’égard de l’environnement

      

      

       Les premiers textes officiels concernant l’éducation à l’environnement datent de 1971, année de la création du ministère de l’environnement. Le développement de l’éducation à l’environnement en milieu scolaire s’est opéré parallèlement à une prise de conscience internationale, par le grand public des problèmes d’environnement résultant des conséquences d’un développement économique d’une rapidité sans précédent. C’est à Stoockholm en 1972 que le coup d’envoi pour une pédagogie de l’environnement est donné (conférence des Nations-Unies sur l’environnement humain). Le colloque d’Aix ainsi que la circulaire du 24.08.1972 s’essaient à définir l’éducation à l’environnement (l’environnement étant défini comme « l’ensemble, à un moment donné, des aspects physiques, chimiques, biologiques et des facteurs sociaux et économiques susceptibles d’avoir un effet direct ou indirect immédiat ou à terme, sur les êtres vivants et les activités humaines ») . Mais c’est dans le rapport final de la conférence intergouvernementale UNESCO-PNUE de Tbilissi (1977) que les objectifs de l’éducation à l’environnement sont précisés. Ceux-ci sont de trois ordres : favoriser une prise de conscience, éduquer aux valeurs de responsabilité et de solidarité et provoquer un changement d’attitude.

      C’est cette même année que le ministre de l’Education Nationale s’adresse aux recteurs, aux inspecteurs d’académie, aux chefs d’établissement, aux directeurs d’école afin de leur communiquer une instruction générale sur l’éducation des élèves en matière d’environnement.

      

      

      1.2.1. L’éducation à l’environnement: une découverte pragmatique de son milieu de vie

      

       « A une époque où la dégradation de son milieu de vie pose à l’homme des problèmes de choix déterminants pour son avenir, une éducation en matière d’environnement s’impose de toute évidence. » Il apparaît indispensable que « l’école apporte aux élèves, dès leur plus jeune âge et tout au long de leur scolarité, une formation qui leur permette de saisir les problèmes de l’environnement de façon intelligente et constructive. » Néanmoins, l’environnement étant un domaine très vaste (selon la définition élaborée à Aix), il ne peut « en aucun cas constituer une nouvelle discipline. Il doit « imprégner » l’enseignement dans son ensemble. » La diversité et la complexité des problèmes posés rendent nécessaire la contribution de toutes les disciplines autour d’un projet d’étude qui s’appuiera « dans toute la mesure du possible » sur une découverte concrète du milieu et qui aura pour objectif de développer chez l’élève une attitude d’observation, de compréhension et de responsabilité à l’égard de l’environnement. « La découverte se fera si possible grâce à la transplantation de la classe dans des structures d’accueil favorables à l’initiation à l’environnement. »... « Les directeurs d’école et les chefs d’établissement prendront les dispositions nécessaires afin de permettre les sorties des classes sur le terrain et de rendre possible une coopération entre les enseignants. » Mais l’éducation à l’environnement doit se développer à moyens constants: « lorsque cela sera possible », l’élaboration d’un projet d’étude pluridisciplinaire pourra être mené. Néanmoins, une documentation « permettra aux enseignants de compléter leurs connaissances et leur donnera également des informations d’ordre pratique et matériel », de plus « l’initiation à l’environnement » devra être prise en compte dans les stages de formation initiale et continue des enseignants. Suite aux engagements pris à Rio en 1992 dans le cadre de l’Agenda 21 autour du concept de développement durable, un protocole est signé entre le Ministre de l’Education Nationale et de la Culture, J. Lang et le Ministre de l’Environnement, S. Royal

      ( B.O.E.N. n° 3 du 21.01.1993). L’éducation apparaît être un facteur essentiel de protection de l’environnement directement en responsabilisant les adultes de demain et indirectement puisque les jeunes scolarisés sont un vecteur important de sensibilisation des adultes à l’environnement.

      

      Si depuis les années 1970, les programmes des différentes disciplines incluent une thématique environnementale (sciences de la vie et de la terre, géographie, éducation civique...) et que des projets d’étude pluridisciplinaire ont été menés, un nouvel essor doit être donné à l’éducation à l’environnement afin notamment de l’adapter à la complexité croissante des problèmes d’environnement, aux progrès de la recherche et de la technologie et à la mondialisation des enjeux.

      

      

      

      1.2.2. La déclaration du Conseil National des Programmes : pour une réelle prise en compte de l’Education à l’environnement dans l’enseignement français

      

       Lors de son intervention devant le Conseil national des Programmes (C.N.P.) du 11 octobre 1990, à propos de l’éducation à l’environnement, le ministre de l’Education Nationale lui a fait part de ses constatations : l’environnement n’existe au sein de notre enseignement que de manière « fragmentaire », « éparpillée » et de plus, il « manque de visibilité ». Le Ministre a donc passé commande auprès du CNP d’« un plan global d’éducation à l’environnement, soucieux de progressivité et de cohérence interdisciplinaire ».

      

      Dans la déclaration du Conseil National des Programmes, l’éducation à l’environnement est présentée comme une éducation fondamentale. Tous les élèves des lycées d’enseignement général, professionnel et technique, doivent avoir la possibilité d’approfondir une culture commune élaborée en 1er cycle et en collège. Malheureusement, la prise en compte de l’environnement dans les disciplines reste insuffisante (sauf en biologie). Il semble donc fondamental au C.N.P. de reformuler la finalité et les objectifs de l’éducation à l’environnement en terme de savoirs, d’attitudes et de comportements mais aussi d’alerter les éducateurs sur les difficultés qu’ils rencontreront afin que ceux-ci puissent mener à bien leur mission.

       Finalité de l’éducation à l’environnement :

      

       « Amener les élèves à prendre conscience de la complexité de la notion d’environnement et à ne pas l’appréhender avec un regard réducteur » en abordant différents enjeux actuels comme la qualité de l’air, la gestion des déchets ou encore la limitation du bruit en mettant l’accent sur la résolution de problèmes. La mobilisation des connaissances acquises lors de l’analyse critique des problèmes rencontrés doit au moins, permettre aux élèves de « dépasser les solutions simplistes », si ce n’est de mener une réflexion critique touchant aux limites des disciplines et aux contradictions sociales. Ainsi, l’éducation à l’environnement doit amener les élèves à une prise de conscience de leur responsabilité individuelle et collective dans la préservation et l’évolution de l’environnement ainsi que de l’impact de leur comportement sur l’environnement.

      

      

       Objectifs de l’éducation à l’environnement :

      

       L’apport de connaissances est cette fois encore reconnu comme indispensable à l’analyse des problèmes rencontrés. Les notions d’échelle, de cycle, de norme, de risque et d’incertitude mais aussi de coût doivent être abordées de manière progressive.

      

      De même, tout au long de la scolarité doivent être développées avec des exigences diverses selon l’âge, différentes capacités : à observer, à s’interroger sur un milieu, sur les facteurs de nuisance, sur la notion subjective de confort, à chercher, à analyser, à agir, à travailler avec d’autres, à apprécier et à comprendre.

      

      Il semble nécessaire au C.N.P., de viser à la transformation des attitudes et des comportements en développant la conscience d’une solidarité planétaire et en imposant une « citoyenneté mondiale ». Le futur  citoyen doit ainsi être éduqué aux valeurs de solidarité et de responsabilité par le biais de différentes stratégies éducatives. Le C.N.P. propose de travailler autour de « situations d’action » permettant de sortir des lieux scolaires, permettant une découverte concrète du milieu sur laquelle prendra appui l’apport de connaissances, l’acquisition de savoir-faire et la réalisation de projets alliant action et réflexion. Les activités développées à partir de problématiques liées à l’environnement peuvent prendre la forme  d’actions sur le terrain mais aussi de fabrication d’objets, de recherches, d’enquêtes et d’observations aboutissant à des présentations publiques. L’école doit donc faire appel aux ressources locales et s’engager dans un partenariat contractuel et s’ouvrir aux parents d’élèves et « éventuellement aux intervenants extérieurs qualifiés dont le chef d’établissement estimera offrant toute garantie ». Les projets d’action doivent être définis lors de l’élaboration du projet d’établissement. Celui-ci doit en effet « inclure une réflexion d’ensemble et des mesures concrètes pour l’éducation à l’environnement ».

      

      Si les programmes de certaines de ces disciplines font déjà une bonne place à l’éducation à l’environnement (biologie, géologie, géographie), d’autres ne prennent pas encore assez en compte les problèmes d’environnement (économie et sciences sociales et philosophie). Pourtant, de nombreuses disciplines sont sélectionnées par le C.N.P. pour apporter des méthodes, des concepts et des modèles relatifs à l’éducation à l’environnement et permettant ainsi de fonder une culture de base : la géographie, la biologie et la géologie, l’éducation civique, la technologie, toutes les formations professionnelles (conséquences pour l’environnement des actions professionnelles spécifiques au métier), l’économie familiale et sociale, les disciplines artistiques, l’économie et les sciences sociales et la philosophie.

      Le C.N.P. propose donc aux concepteurs des programmes disciplinaires de poursuivre l’effort de réflexion afin d’intégrer l’éducation à l’environnement au sein de chacune de ces disciplines. D’autre part, le C.N.P. formule aux enseignants concernés par la mise en oeuvre de l’éducation à l’environnement, certaines recommandations.

      

      

      

       Mise en garde des enseignants :

      

       « L’approche disciplinaire étant nécessairement fragmentaire, il faut éviter que les parties du programme relatives à l’environnement apparaissent comme accessoires ou comme de simples alibis. Ainsi la question de l’énergie peut et doit amener à des enseignements purement scientifiques mais aussi, à partir d’une problématique scientifique en la dépassant, s’inscrire dans une réflexion plus globale. »....  « Ainsi, l’éducation à l’environnement implique la contribution de toutes ces disciplines. Elle ne relève pas uniquement des sciences expérimentales qui ont tendance à adopter à ce sujet une double attitude : soit elles annexent le problème, soit elles sélectionnent ce qu’elles se sentent le mieux capables de traiter en oubliant la visée initiale. C’est que l’environnement n’émerge pas de lui-même des disciplines scientifiques et technologiques, il les interpelle. Les difficultés de l’éducation à l’environnement peuvent en effet être mises en évidence autour de ce qui apparaît être des antinomies pour les sciences expérimentales, à savoir :

      _ la nécessité d’une morale provisoire face à une information objective incomplète,

      _ l’approche d’un phénomène complexe par un ensemble de démarches disciplinaires réductrices,

      _ une pensée globale pour une action locale,

      la nécessité de re-situer les problèmes par rapport à l’homme alors que les sciences ont dû s’affranchir de l’anthropocentrisme. »

      D’autre part le C.N.P. alerte les enseignants sur la délicatesse de la tâche qui consiste à « développer l’esprit critique des élèves, aussi bien à propos de leurs actes que de la société dans laquelle ils vivent ». Il insiste sur la nécessité de « prendre en compte des valeurs éthiques et esthétiques pouvant se heurter aux usages et aux pratiques individuels ou collectifs et conduire à des contradictions. » Selon lui, seule une pratique démocratique du débat et de l’action permet d’éviter les écueils et garantit la valeur éducative. Il s’agit donc à la fois de transmettre des connaissances et des concepts et de faire accéder à des valeurs. Les problèmes d’environnement sont complexes et générateurs d’émotions, il conviendra donc d’éviter « les attitudes moralisantes, alarmistes, décourageantes, voire angoissantes pour des jeunes élèves et des adolescents ».

      Ainsi, la formation des enseignants qu’elle soit initiale ou continue apparaît être indispensable à la mise en oeuvre de l’éducation à l’environnement au sein de l’institution scolaire.

      

      

       Formation des enseignants concernant l’éducation à l’environnement :

      

       Celle-ci « doit être développée dans les I.U.F.M.. Elle est fonction de l’ordre d’enseignement et de la discipline. Elle sera assurée par des formateurs particulièrement motivés qui connaîtront les ressources locales tant au niveau des personnes que de la documentation. Les étudiants, sur des cas particuliers, apprendront à travailler en équipe, à concevoir, mettre en pratique et évaluer un projet pédagogique d’éducation à l’environnement en privilégiant l’environnement proche. Ils s’interrogeront sur les problèmes concrets à résoudre, sur le financement des projets, sur le rôle respectif des enseignants et des partenaires. Cette formation sera assurée dans le cadre des disciplines, mais aussi des formations communes. Les premières formations seront à évaluer et à réajuster au fil des ans. La formation continue est tout aussi indispensable. Elle doit proposer des approfondissements disciplinaires permettant une mise à jour des connaissances en perpétuelle évolution. Elle doit également aider concrètement les enseignants à élaborer et réaliser des projets d’action.

      Le C.N.P. souhaite que ces formations initiales et continues soient ouvertes aux personnels des associations et entreprises, soucieux de travailler en partenariat avec l’école. « Ces temps communs de formation sont indispensables pour clarifier le langage et la méthodologie des uns et des autres et assurer la cohérence des interventions. »

      

      Si de « nombreuses réussites » ont été repérées à différents niveaux de l’institution scolaire, elles sont surtout le fait « d’enseignants très motivés, souvent liés au secteur associatif ». Les projets d’éducation à l’environnement ne touchent pas loin s’en faut l’ensemble des élèves. Le C.N.P. avance plusieurs raisons à la non mise en oeuvre de l’éducation à l’environnement : au Collège, il n’y a pas d’horaires spécifiques à la mise en place des thèmes transversaux, au lycée, la prise en compte de l’environnement dans les disciplines, si elle s’est améliorée en Biologie, reste insuffisante voire « notoirement insuffisante » en Philosophie et en Economie « où des possibilités importantes demeurent négligées, non par la faute des enseignants mais en raison des carences des programmes, du poids des évaluations et du caractère contraignant des structures.

      Mais pour le C.N.P. ces difficultés s’expliquent aussi par « certaines lacunes conceptuelles ou culturelles d’un enseignement qui privilégie le « certain » sans faire place au problématique :

       _ absence de perspective critique et historique sur les Sciences et la Technologie, illustrée notamment par le caractère pointilliste des programmes traditionnels d’histoire sur ce sujet ; absence de vue synthétique sur les techniques ;

       _ construction très incomplète de la notion de risque : le calcul des probabilités est presque banni de notre enseignement qui donne une vue très mécaniste des statistiques, réduit le « hasard » aux catastrophes naturelles et intègre difficilement la dimension aléatoire dans les disciplines d’action (Technomogie, Economie, Géographie). D’une manière plus générale, la réflexion sur la notion de risque est quasi inexistante, ce qui ne prépare pas à assumer la part des risques liés à toute action humaine. »

      Aux notions de responsabilité et de solidarité qu’il convient de développer, vient s’ajouter celle de « civisme à l’égard de l’environnement ». Suite aux engagements pris à Rio en 1992 dans le cadre de l’Agenda 21 autour du concept de développement durable, l’éducation apparaît être un facteur essentiel de protection de l’environnement directement en responsabilisant les adultes de demain et indirectement puisque les jeunes scolarisés sont un vecteur important de sensibilisation des adultes à l’environnement. « L’éducation revêt une importance critique pour ce qui est de promouvoir un développement durable et d’améliorer la capacité des individus de s’attaquer aux problèmes d’environnement et de développement. L’éducation de base constitue le fondement de toute éducation en matière d’environnement et de développement, mais cette dernière doit être incorporée en tant qu’élément essentiel de l’instruction. Elle est essentielle aussi pour susciter une conscience des questions écologiques et éthiques, ainsi que les valeurs et des attitudes, des compétences et un comportement compatibles avec le développement durable, et pour assurer une participation effective du public aux prises de décision. Pour être efficace, l’enseignement relatif à l’environnement et au développement doit porter sur le dynamisme de l’environnement physique / biologique et socio-économique, ainsi que sur celle des développements humains, être intégré à toute les disciplines, et employer des méthodes classiques et non classiques et des moyens efficaces de communication ». (Extrait du rapport de la conférence de Rio, 3-14 juin 1992)

      En janvier 1993, un protocole a été signé entre le ministère de l’Education Nationale et de la culture (J. Lang) et le ministère de l’Environnement (S. Royal) (B.O.E.N. n°23 du 21.01.1993). Il réactualise le protocole passé entre les deux ministères en 1983 et témoigne de la volonté d’une « politique d’accompagnement du développement de l’éducation à l’environnement » (B.O.E.N. n°11 du 18.03.1993). Les élèves seront sensibilisés à l’impact de leurs comportements sur l’environnement par le biais de problèmes réels, rencontrés sur le terrain localement, dans différents domaines (eau, déchets, paysage, préservation de la nature, production propre, bruit, qualité de l’air... ) et analysés avec les partenaires en assurant la gestion (parcs nationaux, DIREN, Agence de l’eau, ADEME, associations, fondations ....). Chaque élève, au cours de sa scolarité obligatoire devra avoir bénéficié une fois au moins d’une formation transversale d’éducation à l’environnement organisée sous la forme de P.A.E., de classes d’environnement, d’« atelier de paysage », de clubs ou d’actions diverses dans le primaire comme dans le secondaire.

      Il est nécessaire de faire prendre conscience aux élèves de la responsabilité de l’homme face à son cadre de vie naturel en prenant en compte à la fois les problèmes de conservation d’un environnement menacé et la nécessité de s’adapter aux mutations économiques et sociologiques contemporaines. Pour atteindre cette finalité, les élèves doivent acquérir certaines notions : les notions de responsabilité individuelle et collective et de solidarité à l’égard de l’environnement, la notion de risque majeur et celle de maîtrise des progrès scientifiques et techniques de manière à développer la notion de valeur de l’environnement et ses liens étroits avec l’activité humaine ainsi que celle de civisme à l’égard de l’environnement. D’autre part, ils doivent être initiés à l’historique des approches scientifiques, techniques, philosophiques et artistiques de l’environnement. De plus la dimension économique des problèmes d’environnement doit être systématiquement envisagée ainsi que les liens entre celui-ci et le développement.

      Pour mettre en oeuvre ces objectifs permettant une approche expérimentale de problèmes réels repérés sur le terrain, la formation initiale et continue doit être développée ainsi que la formation de formateurs. Dans chaque académie, la formation de formateurs en environnement s’appuiera sur des organismes spécialisés en formation de formateurs. Ils seront chargés de mettre en place et d’impulser les actions de formation au sein des I.U.F.M. et par l’intermédiaire des P.A.F.. D’autre part, les ministères signataires s’engagent à améliorer les ressources éducatives existantes et à les diffuser largement, ainsi qu’à créer des outils spécifiques pour la formation de formateurs et d’enseignants.

      L’éducation à l’environnement dans les différents textes précédemment abordés est reconnue comme le « facteur essentiel de protection de l’environnement ». Mais pour ce faire, elle doit être adaptée à la complexité croissante des problèmes d’environnement, aux progrès de la recherche et de la technologie et à la mondialisation des enjeux.

      

      Dans son allocution lors de l’ouverture des assises de « La Charte de l’environnement » le 17 janvier 2003 à Pau, Xavier Darcos, ministre délégué à l’enseignement scolaire a, concernant l’éducation à l’environnement en milieu scolaire fait le constat suivant : « Voici donc trente années qu’un travail pédagogique appelé dans un premier temps « pédagogie de l’environnement », puis « éducation à l’environnement », a été mis en place dans notre système éducatif, reposant sur des textes dont la production correspond plus ou moins aux rythmes des grandes conférences mondiales. Au terme de cette période, il m’a paru nécessaire de faire le point. C’est pourquoi j’ai demandé à l’inspection générale de l’Education Nationale d’effectuer un état des lieux de la situation existante et de tracer des perspectives et des propositions. »

      1.2.3. Etat des lieux de l’éducation à l’environnement dans l’enseignement scolaire et perspectives d’avenir

      

       «  Le rapport d’étape de cette mission, qui associe le groupe d’histoire-géographie et celui des sciences de la vie et de la terre, vient de m’être remis. Le constat d’ensemble qui en ressort est que, malgré l’existence de réussites ponctuelles brillantes reposant sur des académies pilotes et des équipes passionnées, il n’existe pas de véritable éducation à l’environnement dans notre système éducatif. Pour quelles raisons ? Tout d’abord, l’éducation à l’environnement repose aujourd’hui sur des textes fondateurs désormais anciens. C’est notamment une circulaire de 1977 qui définit le cadrage pédagogique toujours en vigueur. Celui-ci a d’ailleurs le mérite d’être extrêmement clair et de proposer une approche à la fois « instruite » et interdisciplinaire, qui privilégie le recours aux projets et invite à développer des partenariats hors de l’école. L’importance du partenariat a de nouveau été soulignée par le protocole interministériel de 1993, qui insiste également sur la dimension patrimoniale de l’environnement et son lien avec l’éducation civique. Si ces approches restent pertinentes dans leurs principes, les textes ne suffisent pas à fonder une véritable politique nationale d’éducation à l’environnement, notamment parce que cette dernière n’y est pas affirmée comme un domaine à Part entière. En outre, on peut s’étonner qu’aucun texte- cadre n’ait été publié depuis dix ans, ce qui laisse supposer une relative indifférence de l’institution à l’égard de cette question. S’agissant en deuxième lieu des programmes, il faut souligner que, si les références à l’environnement y sont nombreuses, il n’existe pas explicitement de cohérence verticale à l’intérieur de chaque discipline concernée, notamment la géographie et les SVT. Ni les élèves, ni les enseignants n’ont l’impression, au travers des différents niveaux d’enseignement, de suivre un parcours cohérent, à l’instar de celui que nous voulons mettre en évidence en matière d’éducation civique. Par ailleurs, les incitations aux approches interdisciplinaires sont peu suivies. Aussi l’application des programmes permet-elle bien l’acquisition d’un certain nombre de connaissances, mais d’une façon globalement trop dispersée pour constituer un corpus robuste, bien défini et identifié par les élèves comme constituant la base de ce qu’il faut savoir sur l’environnement. En ce qui concerne la démarche de projet préconisée dans les textes, je tiens à souligner que c’est là une démarche d’un grand intérêt éducatif, parce qu’elle favorise l’investissement personnel des élèves, leur responsabilisation et le développement de leur sens de la solidarité, et qui peut fortement s’appuyer sur les dispositifs mis en place, comme les itinéraires de découverte au collège ou les travaux personnels encadrés au lycée. Mais, si cette démarche aboutit à des actions parfois remarquables, celles-ci s’avèrent difficiles à généraliser, en raison notamment de l’investissement considérables qu’elles exigent de la part des équipes pédagogiques. Elles ne prendraient tout leur sens que si elles s’intégraient, à chaque niveau, dans une véritable politique cohérente d’éducation à l’environnement. Un mot enfin des partenariats. En matière d’éducation à l’environnement, ceux-ci s’avèrent indispensables et l’Education Nationale a réussi à fortement les développer, aussi bien avec d’autres structures ministérielles qu’avec les collectivités territoriales ou les associations. Ces partenaires de l’Ecole contribuent activement à la réalisation des projets et font montre de pratiques pédagogiques souvent pertinentes. Mais leurs disponibilités sont inégales, mal identifiées et donc difficiles à solliciter. Par ailleurs, ils se trouvent le plus souvent en situation d’initiative et proposent donc des actions qui correspondent davantage à leurs objectifs propres qu’à ceux de l’Education Nationale. Il faudrait donc définir plus nettement les rôles et les responsabilités de chacun et parvenir à contractualiser les actions construites en partenariat. Tel est, retracé dans ses grandes lignes, le bilan que l’on peut faire de la situation actuelle. Malgré d’indéniables réussites, celle-ci n’est pas vraiment satisfaisante et ne permet pas une réelle visibilité en matière d’éducation à l’environnement. C’est pourquoi il nous faut parvenir à une véritable généralisation de cette éducation, en lui insignant des finalités claires et ambitieuses, s’appuyant sur l’existant. Le but n’est évidemment pas de créer une nouvelle discipline pas plus que de nouveaux dispositifs. L’objectif est de délimiter, dans le système éducatif, un « domaine » réservé à l’environnement, comme nous le faisons actuellement pour l’éducation civique. Il est surtout de définir une politique nationale d’éducation relative à l’environnement, avec des objectifs en termes de contenus et de méthodes permettant de fixer de façon cohérente l’acquisition progressive d’une culture de l’environnement et d’en intégrer les implications dans les comportements. Cette véritable éducation à l’environnement qu’il me semble nécessaire de mettre en oeuvre doit s’ancrer dans les territoires, afin de s’appuyer à la fois sur les problématiques et sur les compétences locales. Elle doit être pleinement transversale et interdisciplinaire et se relier étroitement à l’éducation à la santé, aux risques, à la sécurité ainsi qu’à l’éducation civique. Elle doit également être progressive et cohérente, à chaque niveau d’enseignement comme sur l’ensemble de la scolarité primaire et secondaire. Elle doit enfin pouvoir s’accompagner d’une validation : des contenus, des connaissances, des comportements et des savoir-faire. Par ailleurs, elle implique de mettre plus fortement en cohérence les ressources et de développer, de mieux structurer et gérer les partenariats. »

      Et monsieur le ministre de conclure son allocution sur son souhait de « lancer un plan national d’action, qui s’appuiera sur les conclusions du rapport de mission de l’inspection générale... »

      (Darcos, 4/03/2003)

      «Il n’est en rien paradoxal d’affirmer que le premier « environnement » dont l’homme dépend, et qu’il lui appartient de prendre en charge, est son environnement corporel. Un environnement qu’il doit apprendre à gérer, au même titre que son environnement naturel et humain...  Il est clair que l’éducation à la santé, qui met en garde les jeunes contre les dangers que font courir à leur intégrité corporelle, aussi bien les agressions issues du milieu extérieur que celles résultant de leurs propres comportements, est sœur jumelle de l’éducation à l’environnement. » (Clary, Giollitto, 1994, p85)

      Le domaine Santé Environnement est un champ culturel et le savoir en est la condition

      d’ accès. En effet, protéger, gérer sa santé et son environnement supposent qu’on en connaisse le fonctionnement pour être en mesure d’identifier les dangers, d’estimer les risques et proposer des mesures afin de maîtriser ces risques. L’éducation Santé Environnement mobilise ainsi un ensemble de sciences pour atteindre sa finalité : constituer un pôle structurant de l’éducation du citoyen.

      

      

      

      


1.3. Education Santé Environnement

      

      

       L’étude des textes officiels concernant l’éducation à la santé et l’éducation à l’environnement laisse apparaître des similitudes : mêmes finalités éducatives, mêmes stratégies éducatives, mêmes écueils et nécessité de former les enseignants dans l’optique d’une mise en oeuvre effective à tous les niveaux de l’institution scolaire.

      

      

      1.3.1. Education à la santé et Education à l’environnement : mêmes finalités éducatives d’une école ouverte et des stratégies pédagogiques communes

      

       L’éducation à l’environnement est présentée comme « l’une des formes majeures de l’éducation civique » (B.O.E.N. n° 26 du 30.06.1994) au sens où celle-ci est une formation de l’homme et du citoyen. De même l’éducation à la santé « permet de préparer les jeunes à exercer leur citoyenneté avec responsabilité, dans une société où les questions de santé constituent une préoccupation majeure. » (B.O.E.N. n°45 du 03.12.1998) L’éducation Santé Environnement s’intègre donc à l’éducation globale du citoyen.

      

      

       Des finalités éducatives semblables :

      

      Ainsi, les instructions officielles de l’Education Nationale concernant la promotion de l’éducation à la santé et celle de l’éducation à l’environnement annoncent les mêmes finalités éducatives à savoir l’éducation au sens des responsabilités individuelles et collectives par le développement d’attitudes telles que:

      _ l’estime de soi,

      _ le respect des autres et de l’environnement,

      _ la solidarité,

      _ l’autonomie et l’initiative personnelle,

      _ l’esprit critique.

      

      Informer, faire réfléchir, aider à construire, trois objectifs de l ’Education Santé Environnement devant permettre à l’élève de gérer sa santé et son environnement et d’être acteur de la démocratie dans laquelle il vit. C’est à dire, l’amener à participer au débat sur sa santé, son environnement et sa qualité de vie. Mais aussi, par une meilleure intégration dans la vie sociale l’inciter à prendre part au débat sur les choix de politique locale et nationale et lui permettre de s’assurer de la mise en place réelle des mesures annoncées (voire de dénoncer les cas de non application des lois...).  « Il faut transmettre à nos élèves la conviction qu’ils tiennent leur destin dans leurs mains. » (Schnapper, 2000 p4) « Outiller le citoyen », c’est développer un potentiel de mobilisation et d’action nécessaire à l’implication sociale et politique. C’est semer et cultiver le sentiment de pouvoir agir, c’est éduquer à la résistance à la pression, à l’influence subie et à l’autonomie de la pensée et de l’action. Il s’agit de faire évoluer des comportements en développant des savoir-faire et des savoir-être, en faisant appel à la responsabilité de l’élève et en lui donnant la possibilité de faire des choix de manière éclairée. « Depuis Condorcet nous savons qu’il ne peut y avoir de citoyen libre s’il n’est pas instruit. Or cette instruction à l’usage de la raison ne saurait ignorer la chose politique - comme c’est le cas de nos jours - . » (Revol, 2000, p15) Pour ce faire l’élève doit s’approprier des concepts fondamentaux, des contenus scientifiques qui lui permettront d’être à même de comprendre les incertitudes, les enjeux éthiques, sociaux, économiques et politiques des différents problèmes auxquels il est confronté. La connaissance étant un préalable à l’évolution d’une représentation et d’un comportement, en développant sa capacité d’interpréter et d’utiliser des informations exactes notamment à partir de l’analyse de documents contradictoires, l’élève devient à même de mobiliser ses savoirs pour prendre des décisions et agir en tant que responsable.

      

      

       Des stratégies pédagogiques à privilégier :

      

       L’éducation Santé Environnement devrait permettre aux élèves de s’investir dans une démarche d’analyse des problèmes rencontrés dans la vie sociale et professionnelle en redonnant cohérence à la foule d’informations qui nous assaillent et de rechercher des solutions en définissant les compétences et les responsabilités de chacun des acteurs. Elle doit être un espace de liberté dans lequel les élèves peuvent s’exprimer, confronter leurs opinions, réfléchir de manière critique afin de se forger un jugement personnel, à élaborer des solutions collectives, à faire des choix de vie et de société en tant que citoyen responsable. Permettre le développement d’un esprit critique de manière à ce que les élèves mesurent à quel point, ils mettent en jeu leur santé et / ou leur environnement en adoptant tels ou tels comportements, mais sans les empêcher toutefois de prendre conscience et d’exprimer ce qu’ils mettent en jeu sur le plan social, relationnel ou personnel en les refusant. C’est les doter d’outils de réflexion sur le sens et la finalité de leurs actions, leur permettre de se construire et de s’individualiser par des choix personnels tout en oeuvrant pour l’amélioration des relations entre personnes mais aussi de ces personnes avec leur environnement. « Pour qu’un message de prévention (maladies sexuellement transmissibles, SIDA, grossesses non désirées, violences sexuelles...) puisse être entendu, toute intervention sur ce sujet doit tenir compte des aspects biologiques et psychosociologiques de la sexualité humaine, ce qui nécessite une synthèse préalable. Par exemple, dans une intervention sur la contraception, il faudrait avoir toujours à l’esprit les éléments suivants, même s’ils ne sont pas tous énoncés :

       _ les aspects biologiques : ils comprennent la description, le fonctionnement, l’utilisation et les inconvénients pratiques des différents moyens de contraception; mais aussi leur interaction dans la relation sexuelle, les risques de grossesse, la pilule d’urgence, sans oublier en cas d’accident les différentes possibilités d’I.V.G.,

       _ les aspects sociologiques : il est difficile de parler de contraception sans faire référence à la loi, au féminisme, à la limitation des naissances. Quel est l’enjeu social ? Pourquoi des restrictions apparaissent-elles par rapport à la loi ? Comparaison avec les autres pays...,

       _ les aspects psychologiques : la contraception a libéré les femmes de l’angoisse de la grossesse, elle leur a donné l’accès au plaisir et à l’égalité sexuelle, et a permis l’évolution de la responsabilité dans le couple.

      Si une approche thématique est choisie, elle devra tenir compte de ces différents facteurs.» (Repères, pour l’éducation à la sexualité et à la vie, sept. 2000, p39,40) C’est donc l’approche globale qui est préconisée dans le domaine de la santé et de l ’environnement lorsque le projet éducatif vise à permettre à l’élève de comprendre l’ensemble des dimension du problème abordé afin de les intégrer positivement à leur personnalité dans le respect des consciences et du droit à l’intimité et à exercer leur responsabilité vis-à-vis d’eux mêmes et d’autrui dans leur vie personnelle, sociale et professionnelle. « Dans toute discipline, un programme ne se réduit plus, et depuis longtemps, à une liste de contenus exigibles ; il inclut aussi des indicateurs de formation à des méthodes et à des modes de raisonnement, des préoccupations plus nettement éducatives. Il s’agit de transmettre des connaissances, mais aussi de former au raisonnement, à l’autonomie, d’éduquer à la responsabilité. Il est important de souligner que ces objectifs n’ont pas varié depuis plus d’une décennie : s’en tenir à la simple transmission des savoirs, c’est donc pratiquer un enseignement qui n’est plus de mise depuis des années. Les documents d’accompagnement des programmes éclairent de façon précise sur les intentions. » (J-L Michard, I.P.R, I.A, Sciences de la vie et de la terre, académie de Clermond-Ferrand, Repères, septembre 200, p15)

      La mise en oeuvre de projets alliant action et réflexion et la pratique démocratique du débat, dialogue organisé et argumenté entre élèves et entre adultes et élèves sont les garants de la valeur éducative en impliquant la mobilisation des connaissances acquises dans différentes disciplines. Selon J.P. Deschamps, Professeur de Santé Publique (janvier, février 2000), conférer l’aptitude de parler de sa santé et de ses éléments qui la contraignent ou la favorisent, des choix à faire et du mal à éviter, de l’autonomie et de la justice sociale c’est amener à une réflexion sur le pourquoi d’une attitude, sur les choix personnels, sur le comportement (et non uniquement sur le produit comme la drogue et ses effets en termes de toxicité et de dépendance...), sur les valeurs (comme celle du respect de l’autre dans la relation sexuelle) et des stéréotypes largement véhiculés. L’institution de cette pratique implique une éducation à la prise de parole, aux techniques de communication et à l’argumentation, compétences qui nécessitent pour leur mise en oeuvre la confiance en soi. La pratique démocratique de l’action et du débat contribuent à la construction d’une image positive de soi, à l’estime de soi et des autres, au respect des lois et des interdits. Travailler en relation, en équipe améliore la compréhension et l’acceptation de l’autre et permet de substituer la valeur de coopération à celle de compétition. La mise en oeuvre de ces différentes stratégies pédagogiques nécessite une réelle ouverture de l’institution scolaire, ouverture sur le milieu, environnement naturel ou urbain (le plan d’eau, le littoral, la réserve naturelle mais aussi le quartier, la cité, la ville...) et ouverture aux partenaires (parents, collectivités territoriales, institutions de l’état, associations...). Partir du vécu, d’un problème de société permet aux élèves des questionnements qui deviennent motivation et permettent d’aboutir au projet d’apprendre. Une phase d’appropriation de la situation proposée est nécessaire afin de la faire sienne et d’objectiver une question à laquelle le groupe classe tentera d’apporter une ou plusieurs réponses acceptables. Le but à atteindre est celui de l’obtention d’une vigilance active de chacun qui ne consiste pas seulement en l’appropriation de la question mais qui provoque le désir de se mettre en recherche, en action. Privilégier des situations réelles, par nature complexes afin d’aider les élèves à réaliser des analyses systémiques et les amener à faire des choix, privilégier certaines voies ou au contraire renoncer ou reporter à plus tard l’étude d’autres faits ou d’autres liens. Utiliser autant que faire se peut des documents de la vie courante auxquels sont confrontés les élèves citoyens. L’acquisition des connaissances étant inséparable de la maîtrise d’un raisonnement scientifique, elle permet de limiter les comportements irrationnels. L’analyse des situations de départ permet la mise en évidence de faits et de liens, ceux-ci confrontés aux connaissances et aux représentations des élèves amènent à formuler des problèmes dont la résolution s’inscrit dans une démarche explicative et permet d’élaborer des projets d’activités. L’étude de situations particulières favorise alors l’acquisition de compétences globales. (Rey, 1996)

      Les essais de mise en oeuvre des solutions proposées autorisent la mise en évidence des contraintes socio-politico-économiques et leurs liaisons éventuelles avec des contraintes matérielles. L’apprentissage de l’action permet d’associer un développement de l’esprit critique au sujet de cette action et lie la participation à des activités ayant un objectif social à l’utilisation de matériaux des situations sociales typiques. Lorsque l’action réelle n’est pas envisageable pour de multiples raisons, une autre méthode pédagogique peut être utilisée : la simulation. Il s’agit de reconstituer un modèle de la réalité. Elle entraîne à la résolution intuitive de problèmes complexes, à la perception des antagonismes, des conflits, des rapports de force, des blocages. La simulation par ordinateur permet à l’élève de manipuler fictivement les paramètres et de ressentir les effets et les conséquences de ses actions et de ses décisions. Les jeux de rôle peuvent être définis comme une activité se déroulant à deux ou à plusieurs responsables de décisions, cherchant à atteindre leurs objectifs (gagner la partie) en tenant compte des contraintes et des limitations (les règles du jeu). Ils permettent ainsi de repérer les engagements réciproques entre les différents partenaires et la nature de leurs liens (ex producteurs/consommateurs). L’approche praxique ou approche active permet un apprentissage par l’action, apprentissage en situation ou encore recherche action. Elle permet d’atteindre les objectifs émotionnels, éthiques et comportementaux influençant les fondements des valeurs et des attitudes elles-mêmes bases de l’agir. Ces différentes étapes et approches ne sont pas successives mais en interaction constante. A chaque niveau, la situation problème doit être régularisée et le plan d’action révisé. Ainsi le cheminement sera suivi plusieurs fois formant une spirale dont le diamètre va croissant. L’essentiel selon O. Reboul (1990) est de savoir exactement ce qu’on veut (objectif terminal), comment on y parvient (objectifs opérationnels) et enfin ce qu’on a réalisé (évaluation). La conscience morale est liée à l’action, elle se manifeste soit devant l’action conduite par soi ou autrui, soit devant celle à entreprendre personnellement ou collégialement. Cette traduction de la moralité nécessite bien sûr la connaissance des conditions et des objectifs de l’action mais aussi celles des valeurs et des raisons qui la fondent.

      

      

      1.3.2 Education Santé Environnement comme articulation entre morale et éthique

      

       « A l’opposé d’un conditionnement, l’éducation à la santé vise à aider chaque jeune à s’approprier progressivement les moyens d’opérer des choix, d’adopter des comportements responsables pour lui-même comme vis à vis d’autrui et de l’environnement...  Ni simple discours sur la santé, ni seulement apport d’informations, elle a pour objectif le développement de compétences. » (B.O.E.N. n°45 du 03.12.1998) « Il appartient au personnel éducatif de faire prendre conscience des repères et des limites, sans imposer une philosophie ou des choix personnels. Ils doivent veiller scrupuleusement au respect des consciences, de la sensibilité et du droit à l’intimité des élèves. Il faut éviter toute attitude moralisante, alarmiste, décourageante voire angoissante pour les élèves quel que soit leur âge. » Il est important éthiquement de montrer à chaque élève qu’il a des choix à réaliser en tant qu’acteur et de ne pas les restreindre à une bivalence bien, mal. Les choix que l’élève peut opérer doivent être réels, il ne s’agit donc pas d’inculquer les valeurs et les comportements préconisés par des experts sachant ce qu’il faut faire pour être en bonne santé et pour sauver la planète. Les valeurs doivent être soumises à l’examen rationnel de chacun. La santé n’est pas le but à atteindre, on ne vit pas pour être en bonne santé mais celle-ci est une ressource pour la vie. L’objectif éducatif n’est donc pas d’exiger que chacun se soumette aux comportements suggérés: ne pas boire, ne pas fumer... pour ne pas entamer son capital santé. Il existe une aporie entre la soumission à des normes au nom des valeurs civiques et l’engagement libre des sujets. Ceux-ci peuvent préférer mener une vie courte mais leur paraissant être de qualité, qu’une existence longue mais ennuyeuse. Prolonger son espérance de vie en se privant de toutes joies épicuriennes peut ne pas tenter. Tout individu est soumis à des enjeux contradictoires, des paradoxes, des forces contraires, des pulsions de vie et de mort qui conditionnent les attitudes qu’il prône et les comportements qu’il adopte. De plus de nombreuses situations quotidiennes nous imposent un choix entre « ne pas faire » et « faire avec un risque » auquel nous acceptons de nous exposer en minimisant parfois la probabilité de manifestation du danger et/ou en surestimant notre aptitude à maîtriser le risque. Dans l’explicitation des comportements, il n’est pas possible de gommer la recherche des plaisirs et le refoulement de la douleur et de l’angoisse. Ainsi, la tribune des cahiers de nutrition et de diététique de février 2000 était consacrée à la consommation d’alcool ou plus précisément à la pensée sur l’alcool. « Les travaux scientifiques présentés dans cette livraison font la promotion d’une conception étayée sur le paradigme central de la pharmacopée moderne, la notion d’effet dose. Ils renforcent l’intérêt de la distinction proposée par certains spécialistes des sciences humaines, entre alcoolisation et alcoolisme qui réorganise l’opposition entre l’alcool socialisant et l’alcool désocialisant sur laquelle butait l’utopie hygiéniste. Si la consommation chronique et en grande quantité d’alcool est bien désocialisante et pathologique, la consommation modérée, dans les cultures où il est un produit historiquement connu, est un moteur de sociabilité, un puissant « lubrifiant social » selon l’expression du philosophe Jean Bernard Paturet. D’un côté l’alcool relève de la dépendance avec ses infrastructures physiologiques et psychopathologiques, de l’autre, il ressort de la physiologie de la nutrition et des dimensions culturelles et imaginaires de l’alimentation. Dans la première perspective, l’alcool est une drogue, dans la seconde un aliment. La question qui apparaît alors est celle du ou des seuils de basculement. Y a-t-il une valeur unique sur un continuum de consommation journalière d’alcool, disons trois verres par jour comme le propose en conclusion de son article Daniel Rigaud, ou bien peut-on en imaginer d’autres s’articulant sur des rythmes de consommation dans lesquels alternent des alcoolisations ponctuellement plus fortes encadrées de période de quasi abstinence ? ... Si le vin et l’alcool sont en passe d’être réhabilités, un nouveau chantier nous attend, sans doute beaucoup plus dur celui-là : la réhabilitation de l’ivresse. Car dans la culture du vin, c’est aussi une affaire d’ivresse. Pour ce faire, il nous faut revisiter la question des fonctions anthropologiques des modificateurs d’état de conscience et leur usage quasi universel. Nous redécouvrirons sans doute les vertus de l’ivresse (faut-il rajouter modérée ?) et la double figure de Dyonysos-Bacchus à la fois Dieu de l’ivresse et fondateur de la cité, de l’ordre social. Faute de quoi la consommation d’autres modificateurs d’état de conscience, qu’ils soient remboursés par la sécurité sociale ou condamnés par la loi, a de beaux jours devant elle. » (Poulain, 2.2000, p65)

      Autre exemple, celui de la consommation de tabac, la régression actuelle du tabagisme en Amérique est liée au fait que fumer est devenu une activité immorale notamment parce que c’est une activité individuelle qui nuit à la santé d’autrui; «Fumer est devenu ces dernières décennies un problème moral particulièrement important alors que, à l’origine, ce n’était qu’une préférence individuelle laissant les autres plutôt indifférents. L’invocation de raisons morales pour interdire telle ou telle substance a une longue histoire en particulier en Amérique. Les raisons morales autorisent les individus à la censure, appellent des actions juridiques, publiques et gouvernementales et aboutissent à rendre la prohibition vraiment effective. Par conséquent, ce processus de moralisation a une influence majeure sur le libre choix.... La conséquence de tout cela est « la tendance à moraliser tout risque perçu dans un contexte où la morale exerce une telle puissance qu’elle peut, en définitive, décider de la mise à disposition ou non de certains aliments et se substituer ainsi aux choix individuels.» (Rozin, Apfelbaum, 1998, p147) D’autre part dans la société occidentale, la prise de risque est prohibée hormis dans des cadres bien précis (défis sportifs et/ou médiatiques...). Toute situation à risque lors d’activités de la vie quotidienne entraîne une surprotection : ceintures obligatoires en voitures, casque pour les cyclistes, les skieurs, protections pour les rollers... De plus la prise de risque est stigmatisée : le fumeur, le toxicomane, la personne obèse, sont considérés comme des individus ayant des comportements hors normes, coupables s’ils développent des pathologies d’être malades et de représenter une charge économique pour la société. Cette marginalisation des individus qui refusent de se plier aux normes d’une société pleinement responsable de la protection de la santé peut conduire à des refus de prise en charges de soins médicaux ou de traitements. Dans cette démarche normative, l’éducation Santé Environnement se montre souvent culpabilisante à l’égard de ceux qui ayant reçu ses messages ont tenté sans succès d’en tenir compte dans leurs comportements quotidiens . « Bien sûr, il ne faut pas conduire en ayant bu. Bien sûr il faut le savoir et le faire respecter » (Poulain, 2.2000 p65) L’éducation Santé Environnement doit contribuer à la connaissance et au respect de la loi et des interdits. « Il est bien du devoir de l’école de participer à la transmission des valeurs communes, tolérance, liberté, respect de soi et d’autrui, dans le respect des contributions plurielles à la construction de ces valeurs et sans ignorer les significations différentes de chacun de ces termes. Le respect dû aux convictions d’autrui s’arrête là où seraient transgressées les valeurs communes. C’est ainsi que la négation de l’égalité entre les sexes, ou de manière plus large, entre les êtres humains et l’atteinte à la dignité humaine, doivent être combattues par une critique rigoureuse et efficace. » (Repères pour l’éducation à la sexualité p89) « Les valeurs, celles sur lesquelles il importe de s’accorder sont celles de l’école laïque... Toute la démarche consiste à amener le jeune à connaître et à échanger sur les valeurs communes à notre société, à repérer les valeurs complémentaires auxquelles il est attaché (issues de son groupe d’appartenance, familial, culturel, religieux...), afin de lui permettre de se construire et de s’individualiser par des choix personnels. » (Repères pour l’éducation à la sexualité, p10)

      S’il n’est pas moralisateur, le message délivré ne doit pas non plus être anxiogène. En effet celui-ci n’est pas moteur dans la construction des choix personnels. De plus il fait abstraction des facteurs comme l’hérédité, l’environnement ou les conditions de vie qui explicitent également les comportements adoptés. Le message anxiogène pousse alors à la culpabilité, au sentiment de faute et d’impuissance, à l’accablement et à l’angoisse de celui qui est pris au piège. Il est au contraire nécessaire de donner un espoir « de s’en sortir », des exemples positifs, des alternatives, des expériences réussies, prometteuses ou encore des recherches en cours ou des traitements à l’essai... afin que l’élève ait l’envie de se responsabiliser vis à vis de sa santé et de son environnement

      

      L’Education Santé Environnement contribue à la construction d’une image positive de soi même, à l’estime de soi et ainsi au respect de soi et des autres mais aussi à l’ouverture et à la tolérance. Formuler les valeurs auxquelles on est attaché qu’elles soient d’ordre religieux, culturel ou familial et échanger doit permettre de repérer les valeurs communes dans notre cité ainsi que les valeurs complémentaires. Mener une réflexion sur ces valeurs afin d’affiner leur compréhension pour une meilleure intégration et pour faciliter les échanges. Apprendre à parler de confiance, de respect, de protection... lors de débats contribue à l’apprentissage des règles sociales dans la compréhension et l’acceptation des différences. « Il convient d’avoir constamment à l’esprit que le rappel de la loi est constitutif de l’acte éducatif; en posant des limites, il structure la personnalité..... Les lois et règlements défendent, en effet, les valeurs de liberté, de solidarité, de responsabilité, de protection des plus vulnérables... » (B.O.E.N. n°9 H.S., 04.11.1999 p31) Explorer à travers différentes problématiques les règles qui permettent de vivre ensemble et de protéger l’intimité, la liberté...permet de donner sens aux droits et devoirs; aux interdits et sanctions.

      

      La santé et l’environnement sont des objets sociaux foncièrement « politiques ». L’éducation Santé Environnement doit donc contribuer à l’émancipation personnelle et intellectuelle et à construire un adulte citoyen c’est à dire un être pensant et choisissant. Pour atteindre cette finalité, l’éducation Santé Environnement se doit alors, de chercher à développer une attitude de curiosité et de mise en recherche.

      

      Afin de s’inscrire dans les axes prioritaires de l’éducation à la santé et de l’éducation à l’environnement tels qu’ils sont définis dans les textes officiels, le programme de Vie Sociale et Professionnelle (V.S.P.) se substitue à celui d’Education Familiale et Sociale (E.F.S.) en classe de seconde et de terminale B.E.P. en lycée professionnel. (a. du 10.07.1992, B.O.E.N. n° 31 du 30.07.1992) Cet enseignement a pour finalité de contribuer à améliorer la qualité de la vie des futurs adultes par l’acquisition de connaissances, de méthodes, de savoir-faire et de savoir-être. « Il développe des capacités permettant de mieux s’adapter au milieu professionnel lors des stages, des périodes d’insertion et de la vie active. Il permet d’appréhender la diversité et les interactions des situations rencontrées dans l’environnement social et professionnel. Une approche globale de la vie quotidienne s’impose. Cet enseignement participe au développement de l’esprit critique. Il aide l’individu à effectuer des choix, à organiser et gérer sa vie en toute autonomie. » Il demeure assuré par le professeur de Biotechnologies option Santé Environnement.

      (Document d’accompagnement des programmes de Vie Sociale et Professionnelle, Ministère de l’Education Nationale)

      

      

      

      

      

      


1.4. Education Santé Environnement au sein de la Vie Sociale et Professionnelle

      

       1.4.1 Une discipline enseignée en classe de BEP en lycée Professionnel

      

      « L’enseignement de la Vie Sociale et Professionnelle a pour objectifs de :

       _ permettre une approche systémique des situations rencontrées dans la vie quotidienne, notamment dans l’entreprise,

       _ favoriser l’insertion sociale et professionnelle,

       _ amener à mieux gérer sa santé, son environnement, sa consommation, pour améliorer la qualité de vie. »

      

      Cette discipline s’organise autour de quatre domaines: santé, environnement, consommation et entreprise et vie professionnelle. Ces quatre domaines sont à traiter en adaptant l’importance de chacun d’eux, pour chaque B.E.P., au champ professionnel et au public concerné.

       

      Le domaine santé permet :

      

      _ d’élargir les connaissances en sciences biologiques, de les exploiter de manière à mettre en évidence les facteurs qui concourent à maintenir l’état d’équilibre physique, mental et social caractérisant la santé,

      _ d’entreprendre des démarches actives de prévention,

      _ d’identifier les structures de prévention et de soins existant dans le contexte local, départemental et régional, pour les utiliser judicieusement en cas de besoin.

      

      

      

      Le domaine consommation permet  :

      

      _ de développer un esprit critique face aux sollicitations de la consommation,

      _ d’adopter un comportement actif de consommateur averti,

      _ de faire des choix raisonnés en matière d’achats et d’utilisation de produits et de services,

      _ de gérer un budget individuel ou familial,

      _ d’effectuer des démarches auprès des structures d’information et de défense du consommateur.

      

      

      Le domaine environnement permet :

      

      _ d’identifier les infrastructures locales utiles à la vie quotidienne,

      _ d’exploiter les ressources des services et organismes chargés de la valorisation et de la protection de l’environnement,

      _ de prendre en compte les interactions individus/environnement,

      _ de participer par des attitudes responsables à la gestion des ressources et à la protection de l’environnement. 

      

      

      Le domaine entreprise et vie professionnelle permet :

      

      _ de s’adapter à la vie professionnelle par une initiation à la culture d’entreprise et par l’acquisition de connaissances en législation et sécurité du travail,

      _ de sensibiliser à l’évolution de l’emploi,

      _ de s’intégrer dans une démarche de prévention des risques professionnels. »

      

      

      Au cours des deux années de formation 4 capacités seront mobilisées et développées :

      

       _ Effectuer des démarches,

       _ Effectuer des choix raisonnés,

       _ Appréhender une situation dans sa globalité,

       _ S’impliquer dans une démarche de prévention.

      

      L’évaluation se fait par contrôle en cours de formation « doit permettre de mettre en oeuvre les compétences définies par le programme de VSP dont obligatoirement celles relevant du domaine « entreprise et vie professionnelle ». Elle permet notamment de vérifier l’aptitude du candidat à :

      

      

      

      

      _ mobiliser des connaissances scientifiques, technologiques et juridiques...,

       _ analyser une situation de la vie professionnelle ou de la vie quotidienne en vue d’effectuer des choix et de mettre en oeuvre des actions pertinentes,

       _ exercer son esprit critique et à faire preuve de capacité d’adaptation. »

      (a. du 03.08.1994 )

      

      Le professeur de Biotechnologie « s’appuie sur les connaissances acquises dans les différentes disciplines au cours de la scolarité antérieure et actuelle et dans la vie personnelle et/ou professionnelle et sur les préoccupations des publics en formation. Pour aborder le programme de V.S.P. de manière non linéaire, les situations concrètes, support de cet enseignement sont choisies parmi des situations de la vie quotidienne ou des sujets d’actualité en fonction de la diversité des publics en formation et de l’environnement socio-économique. Puis elles sont analysées en tenant compte des interactions entre les différents domaines.

      

      Pour organiser son enseignement, le professeur choisit des situations d’apprentissage et des démarches pédagogiques qui permettent à l’apprenant :

       _ d’approfondir et d’enrichir ses savoirs et ses savoir-faire,

       _ de mobiliser et d’utiliser des connaissances pour résoudre de manière critique une situation,

       _ de développer l’observation, l’écoute, l’argumentation, l’analyse,

       _ d’effectuer des choix raisonnés et d’accéder à l’autonomie nécessaire pour s’impliquer dans des démarches de la vie quotidienne.

      

      Le formateur varie ses stratégies pédagogiques : travail individualisé, travail autonome, travail de groupes, cours magistral, recherches documentaires, jeux de rôles... afin d’impliquer l’élève dans sa propre formation. Les activités proposées face aux contenus ne sont pas répertoriées de manière exhaustive. Elles peuvent s’organiser par exemple autour de :

      

       _ l’étude de documents visuels ou audiovisuels :

       _ reportages, témoignages...

       _ articles de presse...

       _ documents à caractère professionnel (bulletin de salaire, contrat de travail, convention...),

       _ documents relatifs à des produits, des services, des organismes...

       _ documents publicitaires,

       _ documents statistiques et enquêtes...

      

       _ l’utilisation de logiciels,

      

       _ d’observations relevées soit pendant la période de formation en entreprise, soit dans le cadre de la vie quotidienne,

      

       _ l’identification de structures, d’organismes à l’échelon local relatif :

       _ à la protection sanitaire et sociale,

       _ à la protection de l’environnement,

       _ à la protection du consommateur,

       _ à la vie associative et culturelle dans la cité,

       _ à la vie civique et économique...

      

       _ l’élaboration de documents : demande d’information, de renseignements, déclaration d’accidents, de sinistres...

      

       _ l’élaboration de fiches (ex: aide-mémoire), documents comparatifs,

      

       _ l’utilisation de techniques de communication.

      

      

      

      

      L’organisation de ces activités peut permettre :

       _ d’identifier un problème portant sur un ou plusieurs domaines du programme,

       _ de conduire une étude comparative en vue d’effectuer des choix,

       _ de fournir des éléments (ex: textes législatifs, tableaux de données...) dont la mise en relation permet d’appréhender la complexité de la situation,

       _ de repérer les engagements réciproques des différents partenaires : exemples : consommateur/producteur, employeur/ salarié, stagiaire/tuteur/entreprise...

       _ de définir des actions qui s’inscrivent dans une démarche de prévention, de recherche de stage, d’emploi. »

      (Document d’accompagnement des programmes de VIE SOCIALE et PROFESSIONNELLE, B.E.P., Ministère de l’Education Nationale, 1992)

      

      

      La Vie Sociale et Professionnelle est aussi une discipline enseignée en CAP et à l’occasion de la rénovation des CAP (décret n° 2002-463 du 04.04.2002), le référentiel de VSP a été réformé (a. du 26.06.02 ).

      Le CAP est résolument défini comme le premier niveau de qualification professionnelle alors que pour l’essentiel des domaines professionnels, le BEP n’est plus un diplôme d’insertion professionnelle directe mais se situe dans une logique préparatoire au baccalauréat professionnel. Les nouveaux programmes des enseignements généraux ont été conçus pour faire accéder les titulaires du CAP à un niveau comptable avec une première qualification professionnelle orientée vers un accès au premier emploi, tout en ménageant une possibilité de poursuite d’études.

      

      

      

       1.4.2. La Vie Sociale et Professionnelle en CAP, un enseignement participant « aux apprentissages de la vie afin de former un individu responsable ».

      

       L’enseignement de VSP en CAP a été recentré sur l’entreprise (par l’apport de connaissances relatives aux risques professionnels et aux droits et devoirs au travail) participant ainsi « à la vocation d’intégration sociale et d’insertion professionnelle de l’enseignement professionnel ». Il est dispensé en seconde CAP à la rentrée 2003. Le référentiel n’est plus présenté en quatre domaines mais comme une articulation autour de cinq axes :

      

      

      
L’individu dans son
parcours professionnel
La VSP aide la personne à s’adapter aux évolutions de son parcours professionnel et lui permet d’adopter un comportement actif et approprié dans les différentes démarches liées à l’emploi, dans son évolution de carrière par l’acquisition de connaissances et de techniques
L’individu dans l’entreprise La VSP permet à chaque personne de connaître ses droits et devoirs dans l’entreprise, d’identifier les ressources internes à l’entreprise en cas de difficultés et de prendre conscience des conséquences de l’hygiène de vie sur la vie personnelle et professionnelle
L’individu au poste de travail La VSP permet d’adopter une attitude responsable dans le domaine des risques professionnels. En effet, la VSP aide la personne a repérer les risques liés au travail, au matériel, aux produits, aux ambiances, aux gestes et postures et à proposer des mesures de prévention
L’individu acteur de secours La VSP permet à chacune des personnes formées au Sauvetage secourisme du Travail (SST) ou aux Premiers Secours (AFPS) de mettre en oeuvre des gestes de secours et d’avoir un comportement adapté à la situation
L’individu consommateur avisé Par cette éducation à la consommation, la VSP permet à la personne de connaître ses droits et ses obligations, de gérer un budget, d’effectuer des choix pertinents en matière d’achats et d’utilisation de services et de participer à la protection de l’environnement

      

      Les capacités développées sont : _ S’informer,

       _ Analyser une situation dans sa globalité,

       _ S’impliquer dans une action,

       _ Communiquer.

      

      Ainsi, l’enseignement de la VSP, en CAP comme en BEP « par l’acquisition de connaissances, de méthodes, de savoir-faire et de savoir-être, contribue à préserver et à améliorer la qualité de vie ». Développant des capacités permettant de mieux s’adapter au milieu professionnel lors des périodes en entreprise et au cours de la vie active, la VSP « participe, avec d’autres enseignements, au développement de l’esprit critique et aide l’individu à effectuer des choix, à organiser et gérer sa vie en toute autonomie. » D’autre part l’accent est mis sur la contribution de la VSP à l’éducation à la citoyenneté : « la VSP comme l’Education civique juridique et sociale concourent à former le citoyen de demain, conscient de ses droits et devoirs dans les différents domaines de sa vie personnelle, sociale et professionnelle. »  

      

      Un paragraphe « démarches et méthodes » est ici directement introduit dans l’arrété et impose au professeur la mise en oeuvre d’une « pédagogie active à partir de situations réelles d’apprentissage. »...

      « la démarche inductive est à privilégier en prenant appui sur des situations de la vie quotidienne ou sur des faits d’actualité. » Ces situations présentées comme concrètes pour le BEP sont ici précisées: «Ces situations doivent concerner chaque personne en formation, qu’elle soit jeune ou adulte et doivent prendre en compte son domaine professionnel et son environnement. Elles peuvent être extraites de documents: articles de presse, vidéogrammes, cédérom... ou prendre appui sur les expériences vécues par chacun. »

      L’arrêté fixant le programme de VSP en CAP précise la notion « d’analyse de situation » employée dans celui de BEP: les situations « sont simples, claires et variées pour :

      _ dans un premier temps, repérer les éléments de la situation et les mettre en relation pour permettre à l’individu de s’impliquer ;

      _ dans un deuxième temps, à partir de plusieurs situations, rechercher des constantes et en tirer des généralités ou des principes pour permettre à l’individu de structurer ses apprentissages, d’acquérir des notions plus abstraites ;

      _ dans un troisième temps, proposer une ou des situations nouvelles à analyser pour permettre à l’individu de transférer ce qu’il a acquis. »

      C’est donc une « méthodologie de résolution de problèmes » que le professeur de Biotechnologies option Santé Environnement « privilégie »... « afin de rendre l’individu plus autonome dans la construction de ses projets. »

      Concernant les stratégies pédagogiques, le texte précise comme en BEP, qu’elles doivent être variées et ajoute deux exemples supplémentaires à la liste de propositions: « démarche inductive » et « démarche déductive. » Le référentiel précise également pour chaque contenu des limites d’exigence et des suggestions d’activités pour les apprentissages parmi lesquelles apparaissent des travaux pratiques: secourisme, manutention....

      

      

      Après avoir mis en évidence les similitudes et les liens entre l’éducation à la santé et

      l’ éducation à l’environnement à travers les instructions officielles avec notamment des finalités éducatives communes et présenté la Vie Sociale et Professionnelle comme une discipline du secondaire professionnel intégrant ces deux domaines éducatifs, nous nous intéressons aux compétences nécessaires aux professeurs du secondaire chargés de cette éducation.

      


2 Compétences développées par le professeur du secondaire chargé de l’Education Santé Environnement et plus particulièrement par le PLP Biotechnologies Santé Environnement

      

      

       Nous présentons ici les compétences professionnelles qui permettent à nos yeux de construire une représentation du professeur du secondaire chargé de l’éducation Santé Environnement. Cette représentation s’inspire des « missions » du professeur du secondaire ainsi que des instructions officielles relatives à l’éducation Santé Environnement présentées en début de chapitre et cherche à répondre à : « quelles compétences professionnelles développer pour un professeur du secondaire chargé de l’éducation santé Environnement afin de s’engager pleinement dans l’acte éducatif ? »

      Cette représentation décrit un « idéal » de la profession vers lequel le formateur va tendre.

      Avant de présenter les compétences professionnelles retenues, nous allons reprendre les 4 aspects de la notion de compétence présentés par Perrenoud. (1999, p17)

      

      Pour P. Perrenoud, la notion de compétence désigne : « une capacité de mobiliser diverses ressources cognitives pour faire face à un type de situations.  Cette définition insiste sur quatre aspects :

       1. Les compétences ne sont pas elles-mêmes des savoirs, des savoir-faire ou des attitudes mais elles mobilisent, intègrent, orchestrent de telles ressources.

       2. Cette mobilisation n’a de pertinence qu’en situation, chaque situation étant singulière, même si on peut la traiter par analogie avec d’autres, déjà rencontrées.

       3. L’exercice de la compétence passe par des opérations mentales complexes, sous-tendues par des schèmes de pensée, ceux qui permettent de déterminer (plus ou moins consciemment et rapidement) et de réaliser (plus ou moins efficacement) une action relativement adaptée à la situation.

       4. Les compétences professionnelles se construisent, en formation, mais aussi au gré de la navigation quotidienne d’un praticien, d’une situation de travail à une autre.»

      L’implication personnelle de l’enseignant dans la vie sociale et professionnelle vient enrichir cette construction.

      

      Nous avons retenu quatre compétences que nous allons développer après les avoir présentées ci-dessous.

      

      

      

      L’éducateur Santé Environnement doit être capable :

      

      

      1. de tenir compte de son public et de l’accompagner :

      

       _ questionner, écouter, respecter les élèves,

       _ être un accompagnateur, un médiateur, un guide, un régulateur, un animateur...

      

      

      2. de se construire une éthique personnelle dans le cadre de sa mission éducative :

      

       _ se situer dans la société et son environnement,

       _ s’inscrire dans une perspective de problème de société et donc d’éducation citoyenne,

       _ faire preuve d’esprit critique sur le message délivré,

       _ cultiver l’humilité (accepter les limites de ses connaissances, l’incertitude de la science et son évolution, d’apprendre avec ses élèves et de donner plus d’importance aux questions et aux démarches qu ’aux savoirs accumulés) et accepter d’être une référence.

      

      

      

      

      3. de s’approprier une déontologie de l’emploi :

      

       _ mener une réflexion sur sa mission en tant que professeur de lycée professionnel Biotechnologie Santé Environnement, sur les finalités de son enseignement et sur les valeurs qu’elles sous-tendent,

       _ développer ses facultés d’adaptation et d’auto-formation en vue de maîtriser les connaissances scientifiques et techniques mais aussi d’usage social nécessaires à la compréhension et à la résolution des problématiques posées, d’identifier sur le plan local les services et les structures concernées par ces problématiques et maîtriser quelques unes des stratégies éducatives notamment celles propres à la démarche scientifique, à l’entraînement à l’argumentation et à la pédagogie de projet.

      

      4. de mettre en oeuvre des stratégies éducatives spécifiques :

      

       _ mettre en oeuvre une démarche de résolution de problème,

       _ organiser et gérer des débats et des projets en vue de développer une attitude de responsabilité et de respect, un comportement de prévention ainsi que l’implication citoyenne.

      

      

      

      Le professeur chargé de l’éducation Santé Environnement doit donc maîtriser des compétences relatives aux différentes dimensions de ce champ éducatif : dimension cognitive, affective, éthique, politique et sociale, afin de respecter la mission qui lui est confiée. « Il doit y avoir chez eux une part de volontariat, une part de militantisme social, une part de connaissances, un amour et un respect de l’autre. » (Lapoix, sept. 93)

      

      


Compétence 1 : tenir compte du public et l’accompagner

      

      Tenir compte de son public d’élèves adolescents voire de jeunes adultes, c’est savoir établir une communication en prenant en considération le récepteur, l’apprenant, l’éduqué... afin de mieux le percevoir, d’identifier et de cibler ses attentes et ses besoins et d’adapter son discours et ses stratégies pédagogiques. Le professeur doit donc être capable de questionner ses élèves, de les écouter tout en les respectant.

      

      C.1.1 Questionner les modes de vie des élèves :

      

       Un cours sur l’alimentation, le cancer, la vie sexuelle ou le danger de certains produits de consommation questionne inévitablement, de façon claire ou tacite, les modes de vie des élèves et de leurs familles. Certains professeurs se limitent à un enseignement scientifique et n’incitent pas les élèves à parler de leurs propres expériences : ils préfèrent ne pas entamer un dialogue qui pourrait conduire à des confidences un peu lourdes à porter. Inciter les professeurs à donner la parole aux élèves sur des sujets qui sont peut-être sources d’inquiétudes ou de souffrance n’est pas sans risque (conflits familiaux, anxiété, décès, mauvais traitements...). Ces actions devraient toujours s’appuyer sur une complémentarité entre les professionnels de l’éducation, habitués aux situations pédagogiques collectives et les professionnels de la santé, formés à la prise en compte des souffrances individuelles, plus qualifiés dans la relation d’aide. Questionner sous-entend écouter et entendre les préoccupations réelles et accepter le décalage qui existe parfois entre les besoins ainsi exprimés et l’offre de formation. Dans les années cinquante et soixante, D. et P. Stagnara ont donné des conférences traitant de la sexualité humaine et de l’amour dans des établissements scolaires et à la demande de ceux-ci. Ils ont constaté qu’ils projetaient leurs convictions sur un auditoire qui n’avait que très peu de temps pour s’exprimer. C’est pourquoi depuis 1966, ils ne sont plus intervenus dans des classes sans avoir reçu, quelques jours avant la rencontre, des billets individuels et anonymes où les élèves ont inscrit les vraies questions, celles qu’ils ne peuvent ou ne veulent pas poser à leurs proches, parents ou éducateurs. Depuis 26 ans, le groupe a rencontré 65000 enfants et adolescents en âge scolaire depuis la fin du primaire jusqu’à la terminale. (étude par tranche de 2 ans dispersées sur 20 ans, de 25313 questions d’élèves, en comptant le nombre d’apparition de 14 mots significatifs). Ils ont ainsi pu constater que le vocabulaire utilisé par les élèves pour formuler leurs questions est soumis à l’évolution de la société et de ses mœurs :

      

      1966-1970 : les expressions employées: «est-ce permis, défendu, est-ce bien ou mal», sont de type moral, avec une connotation éthique .Elles ont diminué progressivement jusqu’à disparaître totalement depuis une dizaine d’années.

      

      

      

      

      1975-1980 : le mot flirt très utilisé au début des années 70 a tout à fait disparu au profit du mot sortir. On utilise très largement faire l’amour, mais il est de plus en plus fréquent de voir apparaître chez de jeunes élèves des expressions grossières et parfois inexactes comme enculer, baiser, niquer ... faute de connaître un vocabulaire adapté pour désigner les relations sexuelles. On voit apparaître des expressions comme «j’ai peur» ou «est-ce obligé» en parlant de certaines pratiques sexuelles.

       Années 1990 : certains mots comme virginité, fiançailles ou mariage ont eu des éclipses quasi totales et réapparaissent comme le mot fidélité qui revient en force. Si le mot plaisir a gagné du terrain depuis 20 ans (3,7% au lieu de 0,6), le mot bébé reste en première place (28%), avec surtout le mot amour ou aimer (10,9%). C’est l’expression à quel âge ou est-ce normal (13,5%) qui vient assez souvent en deuxième position.

      L’environnement social et culturel comprend un mélange d’interdiction d’en parler et une débauche de discours sexuels et de représentations des relations génitales de tous ordres. Enfants et adolescents sont imbibés d’informations disparates pour lesquelles ils n’ont pas eu d’école de lecture. Lorsqu’ ils sont livrés à eux mêmes, ce fatras s’inscrit non métabolisé dans leur mémoire plus ou moins consciente. Certains adolescents sont donc imprégnés d’une quantité d’images dont ils n’ont pas trouvé la raison, la signification. S’ils peuvent en parler avec leurs parents ou un adulte les messages vont passer au moulin de la parole et de la réflexion, ils pourront en faire un élément de leur jugement et mieux maîtriser par la suite les pulsions incitées par ces spectacles. Les adolescents sont inondés d’informations fragmentaires et leurs questions traduisent des demandes d’explications, de sécurisation et des repères que le professeur doit entendre.

      

      Avoir la volonté de faire émerger les questions des élèves, leurs représentations mentales et sociales indique que le professeur cherche à fonder son action éducative sur les sujets qu’il a devant lui dans sa classe. «  D’une manière générale, il doit être admis qu’un message éducatif qui bousculerait trop les croyances ou les habitudes alimentaires, risquerait d’être contre-productif dans la mesure où il ne serait pas pris en compte et favoriserait de surcroît le maintien des comportements antérieurs » (Ologoudou M., 2004 p126) Partir du regard que portent les élèves sur eux-mêmes, sur leurs comportements, leurs modes de vie et la société qui les entoure contribue à rendre structurant l’acte éducatif. Afin de respecter le niveau auquel les adolescents se trouvent dans le processus de leur maturation, il est nécessaire de ne pas précéder les questions mais de répondre à celles qui se sont exprimées. L’objectif d’efficacité ne sera pleinement atteint que si les élèves trouvent devant eux un adulte à l’écoute et suffisamment solide pour les accompagner en les guidant sans les contraindre ni les juger. En effet, souvent « le plus difficile n’est pas de restituer un message d’adulte à partir d’informations claires, mais d’entrer dans les concepts des adolescents, pour qui l’autorité, le risque, la santé, la mort n’ont pas les mêmes significations. » (Repères pour la prévention des conduites à risques, 04.11.1999, p43)

      

      

       C.1.2 Ecouter:

      

       L’écoute permet de partir des besoins de l’autre et de ne pas les confondre avec les siens. Elle n’est pas seulement bienveillante mais doit susciter une activité réflexive et permettre à celle-ci de s’accomplir. C’est à dire que l’enseignant doit respecter le temps nécessaire à chacun des élèves pour qu’il chemine dans sa réflexion. L’enseignant va alors dans sa classe établir un cadre moral qui peut être représenté par des règles explicites : je laisse les autres s’exprimer, je ne les interromps pas, je les écoute, je ne préjuge pas de l’intérêt de leur parole, je ne me moque pas, je ne critique pas l’individu mais ses idées. Ce cadre moral oeuvre pour une écoute partagée, le professeur n’est pas le seul être à l’écoute des autres, chaque élève doit être amené à écouter et à entendre l’autre. Car c’est dans la médiation des échanges sociaux que l’adolescent peut exprimer ses affects inconscients et en maîtriser l’énergie. L’écoute doit aussi permettre au professeur de tenir compte de son public, de sa motivation, de sa maturité, de ses préoccupations... afin d’adapter son message, le réduire, le développer ou encore le remettre à plus tard sans jugement. L’écoute permet la prise en compte des représentations des élèves, univers symboliques, culturellement déterminé, socialement construit où se forgent les théories spontanées, les opinions, les préjugés, les décisions d’action... Ces éléments conceptuels, ces attitudes et ces valeurs résument une certaine connaissance du monde qui se construit, se désintègre, se reconstruit et se renforce au cours de multiples interactions. Représentation, discours et pratique forment ainsi un système qui peut évoluer. Etre à l’écoute, c’est aussi accepter d’entendre les critiques exprimées que celles-ci visent les institutions ou les pouvoirs établis. Etre à l’écoute c’est donc être vigilant, être en veille par rapport à l’élève en tant qu’être pensant et choisissant donc digne de respect.

      

      

      

       C.1.3 Respecter :

       Le professeur accompagne l’élève vers ses choix, il doit donc avoir une conscience éthique des élèves en tant qu’individus auxquels il s’adresse. Respecter la culture et le désir des élèves implique d’être constamment en veille vis à vis d’eux en tant qu’êtres possédant leurs valeurs, leurs croyances et leurs représentations. Comme l’a déclaré Jack Lang Ministre de l’Education Nationale lors du lancement de la campagne nationale l’école du respect:  « le respect est le sentiment qui relie les citoyens entre eux » (www.education.gouv.fr, 18.10.2001) Cette attitude de vigilance sous-entend un désir réel de découvrir les élèves et de saisir leurs schèmes. L’élève étant généralement un adolescent vivant dans la majorité des cas dans une famille, le professeur ne peut faire abstraction de celle-ci. L’élève arrive à l’école porteur de toute l’expérience qu’il a déjà assumée dans son milieu familial et social. L’éducation Santé Environnement en milieu scolaire, s’adresse à un public dont les pratiques sanitaires reposent sur un savoir social, expérimenté au quotidien dans les familles, dont il est illusoire de ne pas tenir compte même (surtout?) s’il est le fondement de certaines pratiques nocives. Ainsi le professeur évite de montrer des images dégradantes de consommateurs de substances psychoactives ou de malades du SIDA ou du tabac.

      Le professeur chargé de l’éducation Santé Environnement peut avoir tendance à rendre les individus coupables des conditions de vie dont ils sont souvent otages gommant les aspects sociaux de bon nombre de problèmes de santé et d’environnement auxquels ils sont soumis. D’autre part, la famille a des choix même si ceux-ci sont souvent limités par la situation sociale, géographique et les moyens financiers et le professeur ne peut interférer directement. De quel droit, peut-on: - juger de l’achat par une famille RMIste d’une parabole et lui demander de privilégier plutôt un achat de livres ou un abonnement au théâtre ? - ironiser sur l’achat de chaussures Nike à 150 euros alors que la mère élève seule ses enfants ? - sous estimer le choix de ceux qui croient à la fidélité ou qui refusent de s’engager dans des relations sexuelles précoces ?

      Respecter son public implique de ne pas juger, ni condamner ou refouler certaines pratiques ou certains comportements, d’être attentif à ses propres réactions émotives afin de ne pas se laisser emporter par son affect et de maîtriser ses propos. Respecter, c’est inhiber la tendance de tout maître à normaliser à partir de ses propres valeurs, éviter de condamner ou de refouler certaines attitudes, certains comportements mais plutôt aider à les identifier pour aider à les maîtriser dans le cadre de la loi sociale relayée par les interdits des codes pénal et civil.

      Etre éducateur, c’est accompagner les élèves vers leurs choix et leur donner les moyens de réaliser ces choix.

       C.1.4 Etre un accompagnateur :

      

       La démarche éducative en prévention fait nécessairement appel à l’accompagnement. L’éducateur accompagne le cheminement réflexif de l’élève qui pense et décide en mettant en oeuvre les outils permettant de développer cette capacité : analyse de la problématique, identification des contraintes, connaissance de la réglementation, des normes... Mais c ’est aussi accompagner à la prise de parole en développant chez l’élève l’estime de soi, le sentiment d’être responsable de sa propre vie, la conviction d’être capable de se fixer des objectifs et de mettre en oeuvre les moyens qui permettront de les atteindre.

      Le professeur doit interagir avec les activités des élèves afin d’infléchir leurs démarches tout en les prenant en compte en fonction des objectifs (formulés en terme d’attitudes et de comportements, de démarches méthodologiques, de connaissances ou encore de clarification de valeurs) qu’il a formulés et qu’il a explicités aux élèves. Ce qui suppose qu’il soit au clair avec les objectifs et les finalités de sa discipline ( la Vie Sociale et Professionnelle ) et avec les enjeux de l’éducation Santé Environnement tels qu’ils sont définis dans les instructions ministérielles.

      

      Ces différentes compétences rendent nécessaire :

       _ une ouverture sur la société et l’environnement dans lesquels évolue le professeur mais aussi les élèves qui lui sont confiés surtout s’ils différent.

      C’est donc un travail de prospection, de décodage de la société qui demande ouverture et curiosité.

       _ un travail d’introspection, une prise de recul permettant au professeur de chercher à se positionner vis à vis de ses propres valeurs et vis à vis de celles de la société dans laquelle il évolue (pensée occidentale, normes de la classe moyenne...).

      

      « C’est à aider l’enfant à concilier ses désirs et la réalité que doit viser l’éducateur. Ce qui suppose non seulement qu’il connaisse l’enfant et ses besoins pulsionnels mais qu’il se connaisse lui-même. Et notamment qu’il puisse s’interroger sur ce que peut exprimer, en profondeur, son propre désir d’éducateur. Il lui faut être maître de soi avant d’être maître de l’enfant. » (Mauco, 1975, p9)

      


Compétence 2 : Se construire une éthique personnelle dans le cadre de sa mission éducative

      

       Se construire une éthique personnelle c’est s’interroger sur la finalité de ses actes afin de leur permettre d’être conformes à un idéal. C’est tenter de mettre de la cohérence entre le dire et le faire, entre la proclamation et la motivation réelle des actions entreprises. L’éducateur se doit de s’interroger sur sa légitimité en se posant différentes questions :

      _ Qu’est-ce qui m’autorise à dire aux autres que je sais ce qui est bon pour eux ?

      _ En quoi suis-je certain de ne pas les normaliser, de leur inculquer des règles de conduite régies par un système de valeurs dans un cadre social déterminé dans lequel ils ne se retrouvent peut-être pas ?

      

      

      

      

       C.2.1 Se situer dans la société et son environnement :

      

       Trop souvent le professeur chargé de l’éducation Santé Environnement privilégie les valeurs culturelles du milieu dont il est issu sans tenir compte des particularités culturelles et des désirs individuels. Ce caractère normatif de l’éducation Santé Environnement est en partie dû au fait que les éducateurs pensent posséder le savoir universel en matière de conditions de vie favorables à la santé, négligeant les résistances que la diversité des perceptions et du vécu peuvent opposer à la réception d’un message, même s’il est une vérité universelle. Ainsi l’autonomie si recherchée au sein de l’institution scolaire n’est pas une valeur universelle, certaines cultures privilégiant plutôt des valeurs d’entraide, de partage voire de dépendance.

      De plus, « alors que les enseignants ont été longtemps porteurs des valeurs les plus présentables de leur société, ils doutent aujourd’hui de leur bon droit. Valoriser le travail dans une société qui s’habitue à vivre avec dix pour cent de chômeurs, est-ce une bonne action ? Dans une caricature récente, des jeunes se demandent si l’école, plutôt que de les préparer aux examens, ne devrait pas les former à la « mise en examen » formule qu’on utilise en droit français pour désigner l’ouverture d’une instruction judiciaire... Il est vrai que nombre de jeunes auront à affronter des conditions assez précaires, faites de petits boulots et de combines.

      

      Un analyste lucide de l’avenir probable de certains publics scolaires pourrait conclure qu’inculquer le respect scrupuleux de la loi est moins utile que de développer l’art de ne pas se faire prendre lorsqu’on vit d’expédients. Il y a désormais un doute - du moins dans certains secteurs de la scolarité - sur la correspondance entre les valeurs que l’enseignement est censé transmettre et ce dont les jeunes auront réellement besoin. On peut toujours parier sur le proche avènement d’une société idéale, mais l’avenir radieux a fait long feu, la naïveté devient insoutenable ou plus exactement, elle est très inégalement répartie : alors qu’une partie non négligeable des enseignants primaires et des enseignants secondaires des filières longues peuvent camper dans un certain angélisme, les enseignants confrontés aux publics difficiles et aux filières de relégation ont bien du mal à défendre en toute bonne conscience les valeurs qui correspondent au monde dont ils rêvent, pas à celui dans lequel leurs élèves vivent, cela en dépit du militantisme de ceux qui ont choisi de travailler « là où la société se défait », selon l’expression de Pierre Lascoumes à propos du travail social. Par ailleurs, est-ce réaliste ? Dans une société emportée par l’individualisme, comment ne pas se sentir un peu ridicule et surtout un peu seul au moment de défendre de grands principes ? » (Perrenoud, 1999, p147) Pourtant nous pensons qu’il ne peut y avoir d’éducation sans positionnement de valeurs.

      

      L’éducateur s’intéresse aux habitudes de vie de la population, il doit donc se poser des questions d’ordre éthique «les conseils délivrés seront-ils vraiment utiles aux gens, leur apporteront-ils un mieux être, les rendront-ils plus autonomes ? Comment s’intégreront-ils à leur mode de vie ?» L’ambition de l’éducateur est de tenter de modifier les comportements pour le bien des individus. Il est nécessaire de réfléchir à la légitimité de cette intervention, à sa nature et à sa philosophie. Il faut prendre en compte la puissance sociale de l’éducateur qui favorise les débordements des principes de santé vers des recommandations d’ordre moral. «L’éducation pour la santé n’a pas pour finalité de normaliser des comportements ou des opinions». (Depinoy, janvier 1999, p12) L’éthique quotidienne liée à une profession, désigne les règles et les devoirs inhérents à celle-ci. Elle est d’autant plus importante ici, que le métier d’enseignant amène à exercer sur l’autre un pouvoir. Il est donc indispensable dans un premier temps de s’interroger sur sa représentation du concept de Santé Environnement et sur le sens que l’on donne à la mission d’éducation à la Santé Environnement. En d’autres termes, quelles sont les valeurs que le professeur espère promouvoir à travers son action éducative ?

      

       C.2.2 S’inscrire dans une perspective de problème de société et donc d’éducation citoyenne :

      

       Si on entend par norme, la règle ou le critère qui régit la conduite humaine en société et notamment le comportement approprié au niveau des lois, l’éducation ne peut en faire l’économie. Le professeur doit mener une réflexion sur les valeurs considérées comme devant présider à la recherche de l’amélioration de la vie collective et à la résolution des problèmes sociaux, qui sont à la base de nos institutions laïques et républicaines puisque sa mission consiste notamment à y faire adhérer les élèves. Mais il doit également prendre du recul, analyser la société française du début du 21ème siècle et ses normes afin de refuser d’être l’instrument d’une société qui utilise l’école pour imposer en douceur des normes sociales de conduite et de mœurs et qui incite à former des élèves clients plutôt que des élèves citoyens. Le professeur doit porter un regard interrogateur sur les réalités du milieu et de l’école : point de départ indispensable d’un véritable processus de construction de la connaissance et d’appropriation de la réalité car avant d’étudier les contenus, s’interroger sur les méthodes et les stratégies à mettre en oeuvre, il faut analyser les valeurs. Car selon celles que l’on privilégie, on ne se donnera pas les mêmes objectifs, on n’utilisera pas les mêmes méthodes et on ne choisira pas les mêmes critères d’évaluation. L’étude des contenus, du message à délivrer doit permettre de repérer les discours normatifs, les intérêts en jeu et les risques d’endoctrinement. Elle doit aussi permettre de prendre du recul afin de ne pas contribuer à la sur-information (voire la désinformation) notamment, en dédramatisant les informations lancées sous forme d’alertes ou de crises anxiogènes.

      

      

       C.2.3 Faire preuve d’esprit critique sur le message délivré :

      

       Empruntons l’exemple du petit déjeuner à A.Douiller, Directeur de l’association départementale pour la santé du Rhône (janvier; fevrier 2000). La norme communément admise en matière de petit-déjeuner est qu’il doit apporter un tiers des apports caloriques de la journée. Or des nutritionnistes combattent ce discours en affirmant que l’équilibre alimentaire n’est pas figé et qu’un enfant peut ne rien consommer à son réveil et manger un fruit et du pain à 10h. Or, « Kellogg’s est parvenu à mobiliser tout le réseau du Comité Français d’Education à la Santé dans une véritable opération de marketing. » En effet le message nutritionniste recommandait de petit-déjeuner en respectant la norme du tiers des Apports Journaliers Recommandés en énergie et en nutriments essentiels (protides, vitamines et minéraux) et les céréales étaient présentées comme un des moyens (sinon le) de respecter cet équilibre alimentaire. Or, «ces céréales ont des teneurs en sucre très importantes.... le coût des céréales, dont nous avons contribué à faire la promotion, n’est pas négligeable et bien supérieur au pain par exemple. Etait-il bien éthique d’inciter les enfants à ce « conditionnement » publicitaire? » « J’y vois (aux programmes de prévention sponsorisés par de grandes entreprises) un grand danger. Je suis convaincu que la santé publique doit rester de la compétence publique. Les intérêts privés (sur lesquels repose notre système économique) ne peuvent pas défendre l’intérêt public, c’est-à-dire celui du plus grand nombre. » Le mensuel Que Choisir d’octobre 2001 dénonçait cet abus: « Dans la série « je fais ma pub avec la caution de l’école », les fabricants de jus de fruits ont frappé très fort. Le kit pédagogique à la gloire de leurs produits, destiné à être utilisé en classe par les enseignants, contient un exercice qui consiste pour l’enfant à ... créer une publicité pour les jus de fruits. L’élève doit inventer un slogan avec pour modèle l’argumentaire : « Avec le jus de raisin ou le jus de pomme, fini les pannes d’énergie. Ils contiennent des vitamines, des minéraux et hydratent notre corps. Ils sont une vraie boisson santé qui se boit à différents moments de la journée. Quel plaisir ! » Le livret scientifique à destination des enseignants souligne, lui, les atouts des jus de fruits, mais avertit aussi qu’ils « ne doivent pas remplacer les fruits, ni l’eau ou le lait. L’eau doit être la seule boisson des repas de midi et du soir. Il est important de ne pas déstructurer l’alimentation des jeunes en multipliant les prises alimentaires. C’est pourquoi la consommation de jus de fruits chez l’enfant a ses moments privilégiés : le petit déjeuner et le goûter. On peut considérer qu’un verre par jour est une quantité optimale à ne pas dépasser sauf en cas d’activité physique intense. » Des précisions que les auteurs du kit pédagogique n’ont pas jugé bon d’apporter aux enfants. » C’est donc à l’enseignant que revient tout d’abord le choix de diffuser ou non ce kit pédagogique. Et dans le cas où il le distribue à ses élèves, de les amener à exercer leur sens critique en leur permettant de corriger l ’argumentaire publicitaire.

      Le terme scientifique est bien souvent usité dans les médias comme synonyme de vrai et d’incontestable. Or, il y a risque de présenter des modèles explicatifs comme des connaissances scientifiques dotées d’une réalité, sans faire mention ni aux indéterminations inhérentes à ces savoirs ni aux négociations qui les façonnent. Il semble donc, indispensable de s’interroger sur les sources des données chiffrées que l’on se propose de diffuser. Peut-on les comparer avec des données antérieures ? Quel est l’échantillonnage ? Quel est le mode de questionnement choisi ? ... sont des questions qu’il est nécessaire de se poser afin de contextualiser et de relativiser l’information statistique. Il est nécessaire d’admettre et de déclarer le non-savoir comme il est impensable de ne pas présenter et expliciter la relativité, l’extrapolation, la modélisation des arguments avancés. Les rapports de pouvoirs mis en jeu dans ces débats doivent être au moins évoqués si ce n’est débattus afin de permettre une prise de conscience des enjeux de la science et de la technique et une réelle participation aux questions qui se posent sur les plans politiques, sociaux et éthiques. Ceci nécessite de la part du professeur de rendre plus lisibles les données scientifiques en permettant aux élèves d’interpréter les données statistiques (en contribuant ainsi à la formation au raisonnement probabiliste), d’effectuer la synthèse des connaissances disponibles nécessaire à une évaluation objective des faits scientifiques de manière à mettre en balance coût et bénéfice et à confronter les prévisions sur l’efficacité réelle des actions de prévention proposées. Ainsi le professeur contribuera à développer chez l’élève une conscience scientifique incluant le scepticisme, le doute et la rigueur. Pour ce faire, le professeur se doit de clarifier les concepts mobilisés dans l’analyse de la problématique et choisir des concepts fondamentaux nécessaires à la structuration du savoir. Par exemple il est important de ne pas confondre légalisation et dépénalisation en parlant de l’avortement ou de l’ usage de drogues « douces ». Le professeur doit s’interroger sur son discours: «qu’est-ce que je veux dire exactement? », «que signifie ce mot? » de manière à clarifier la fonction initiale du mot ou encore à mettre à jour les éléments d’une compréhension commune de ce dernier et de prendre en compte l’usage du mot selon le contexte. Pour ce faire, il doit interpeller les différentes disciplines du champ de la Santé et de l’Environnement.

      

      

       C.2.4 Cultiver l’humilité et accepter d’être une référence :

      

       Accepter qu’un adolescent puisse avoir une expérience humaine plus considérable que la sienne et être conscient de ne pas tout savoir et être capable de le reconnaître sous-entend un processus constant d’auto-questionnement sur ce que l’on fait, sur ce que l’on dit. Avoir conscience que le professeur est une référence pour les élèves, en tant qu’adulte et en tant que représentant d’une institution, s’interroger sur la notion même de référence et être attentif à cette mission. « Il a conscience que ses attitudes, son comportement constituent un exemple et une référence pour l’élève et qu’il doit en tenir compte dans sa manière de se comporter en classe » (c 97.123 du 23.05.97) « L’exemplarité est une pédagogie silencieuse certes, mais indispensable. » (B.O.E.N. n° 9, 04.11.1998, p31) De même selon O. Reboul (1990), l’enseignant doit être un modèle pour ce qu’il souhaite développer chez les élèves: des valeurs morales et éthiques, un engagement personnel, un comportement nouveau. Pour D et P Stagnara (1992), le maître doit amener l’élève à agir et à découvrir, tout comme il doit accepter d’être lui même en position constante de recherche et de remise en question de lui même et de ses méthodes. Ainsi, pour être capable de répondre librement aux questions des élèves dans le domaine de l’éducation affective et sexuelle, l’éducateur doit assumer et maîtriser sa propre sexualité. Il est indispensable qu’il ait un véritable projet de vie fondée sur des valeurs universelles qui sous-tendent les réponses aux questions qui lui sont posées, tout en respectant les personnes qui vivent d’autres projets que le sien. « Sa parole n’est pas uniquement une parole de savoir, c’est aussi une parole d’expérience. Ce qui ne veut pas dire qu’il soit ici question d’aborder sa propre sexualité, considérée sous l’angle de la complexité et de la richesse des relations avec autrui. De ce fait, il est extrêmement important que l’intervenant fixe au préalable les limites de ce qu’il se sent capable de dire de lui même au cours de son action, les adolescents étant prompts à interpeller les adultes sur leurs propres comportements et croyances. (Repères pour l’éducation à la sexualité et à la vie, p23) Il est nécessaire de prendre conscience que le message que l’on délivre (doit délivrer?) peut-être parfois en décalage avec ses propres pratiques: un professeur fumeur, qui ne s’alimente pas le midi et qui rechigne à trier ses déchets... Une cohérence doit exister entre comportements et discours. Tout dépend surtout de l’honnêteté avec laquelle, le professeur intègre sa propre relation avec le risque dans son discours. Par exemple, concernant la tabagie, s’il reconnaît sa dépendance et son incapacité actuelle à s’en sortir. Ainsi, à la question « Et vous, avez-vous essayé ? », « même si les expériences ne sont pas transmissibles, le rôle des adultes est de dire ce qu’ils pensent vraiment, que cela résulte de leur propre expérience ou de ce qu’ils ont directement appris. » (B.O.E.N. n°9, 04.11.1999, p42)

      Que l’on soit adolescent ou adulte, on a parfois du mal à faire ce que l’on sait bon pour soi-même, à résister à la pression de l’entourage, de la publicité ou tout simplement à la recherche de réconfort et/ou de plaisir. Il est vrai que l’on peut éprouver du plaisir en prenant des risques. La discussion doit permettre de prendre conscience de ces « pulsions » universelles pour que les élèves n’aient pas honte d’en parler et ne développent pas une image dévalorisée d’eux-mêmes. « Enfin, il faut rappeler que s’il est une position éducative intenable, c’est bien celle du modèle : la légitimité d’un intervenant en éducation pour la santé auprès des adolescents ne se mesure pas à l’aune de sa propre adhésion aux recommandations et aux normes basées sur le savoir scientifique. Elle se mesure bien davantage à sa capacité à étayer l’émergence chez les adolescents du sentiment d’être entendus, appréciés, valorisés, sentiment qui fondera la prise en charge de leur santé et de leur vie. » (Repères pour l’éducation à la sexualité et à la vie, p23)

      Accepter d’être une référence c’est aussi assumer ses responsabilités d’adulte éducateur, c’est à dire occuper sa place au sein de l’institution scolaire en particulier dans l’équipe pédagogique. Il est en effet demandé au professeur du secondaire de participer activement à l’élaboration et à la mise en oeuvre du projet d’établissement et « d’être attentif à sa dimension éducative. Il travaille en étroite collaboration avec l’ensemble du personnel de l’établissement et est un relais d’information et de communication efficace au sein de la communauté éducative dont il se sent solidaire. (Circulaire 97-123 du 23.05.1997)

      Mais accepter d’être une référence, c’est également être citoyen c’est à dire occuper sa place dans la cité. Le professeur chargé de l’éducation Santé Environnement ne peut être un simple spectateur qui certes analyse les données, les interprète, a conscience des problèmes mais se limite au constat, à une prise de position morale. Il est nécessairement un acteur engagé dans l’exercice de sa citoyenneté. Une citoyenneté qui ne se réduit pas pas à la civilité, qui nécessite de rompre avec une conception dépolitisée et qui permet à chacun de connaître ses droits, de les défendre, de les exercer et d’être en état de choisir et de surveiller ses représentants.

      

      Ainsi en fonction de son origine culturelle, religieuse et sociale, selon son cursus, le professeur élabore sa propre vision de la société dans laquelle il vit et celle de l’avenir de celle-ci et possède sa réponse à la question centrale : « quelles valeurs, quel citoyen, pour quel projet de civilisation et comment le former ? »

      Assurer la mission du professeur exerçant dans le secondaire, nécessite de mener une réflexion critique, un travail d’auto-analyse afin de mieux se connaître et d’apprendre à lire la réalité et d’accepter d’assumer le rôle de guide autant dans les prises de conscience des valeurs que dans la recherche et l’analyse de l’information. Mais cette mission s’inscrit dans un cadre institutionnel et le professeur doit s’approprier les règles déontologiques de son corps. Enfin le professeur comme tout professionnel doit accepter de relever un défi, celui de mener de manière permanente, tout au long de sa carrière, sa formation.

      

      

      

      


Compétence 3: S’approprier une déontologie de l’emploi

      

       C.3.1 Mener une réflexion sur sa mission en tant que professeur de lycée professionnel Biotechnologie Santé Environnement, sur les finalités de son enseignement et sur les valeurs qu’elles sous-tendent :

      

       Quelle(s) finalité(s) à l’éducation Santé Environnement : éduquer pour le bien des individus et/ou éduquer pour le bien de la société ? Telle est la question qu’il semble nécessaire de se poser dans le cadre d’une réflexion sur les finalités de l’acte éducatif. L’enjeu de l’éducation pour la santé est de mettre à disposition de chaque personne les moyens qui lui permettront de développer sa responsabilité, ses choix en matière de mode de vie et de prise de risques. Chacun adapte plus ou moins consciemment ses comportements en fonction de la perception qu’il a de son bien être, du degré de risques qu’il prend et des conséquences à court ou à long terme que son mode de vie peut induire. Cette adaptation, ces choix se font sous influences multiples où se conjuguent des intérêts économiques, des valeurs sociales et culturelles, des intérêts individuels, personnels et familiaux, des représentations subjectives de l’image de soi dont l’éducateur doit tenir compte ainsi que du libre choix de chacun d’adopter des comportements différents et de s’exprimer sur ses choix. Le projet de l’éducateur est au minimum de rendre l’autre au moins aussi libre que lui même et se doit de refuser tout argument d’autorité qui viendrait se substituer à l’autorité de l’argument. Les valeurs fondamentales de la société du développement technico-scientifique de la fin du 20ème siècle qu’O. Renn qualifient de « matérialistiques » (Renn, 1995, p94) : croissance, modernité, progrès technique et scientifique, automatisme, innovation, travail, performance, culture d’entreprise, productivité, consommation, bien être, confort, loisirs organisés, individualité, communication, médiatisation... sont controversées. Il se forme actuellement de nouvelles valeurs (« postmatérialistiques », ayant pour but l’harmonie de la famille, la qualité de l’environnement, l’aménagement du temps libre...) et d’autres hiérarchisations de ces valeurs autour d’un consensus sur l’image effrayante du futur. La crainte des risques domine l’image du futur : dommages toujours plus graves à l’environnement (accident technologique, marées noires...), monde toujours plus technique et artificiel (développement d’internet, des jeux virtuels, production d’organismes génétiquement modifiés, clonage des ovins..), stress et insécurité (le prion et la vache folle, la listéria et les rillettes, la dioxine dans le lait maternel, le SIDA, l’Hépatite C, la résistance des bactéries aux antibiotiques, la recrudescence de la tuberculose et en 2003 le SRAS...). Il n’existe pourtant pas de consensus autour des attentes et projets d’avenir. Il existe même des tendances contraires. Certains placent toujours les valeurs d’innovation et de développement très haut. Ils insistent sur la nécessaire libéralisation des limites à la réalisation du faisable afin de maintenir la croissance et favorisent l’innovation au détriment des valeurs de tradition. Ils craignent l’excès des réactions écologiques conduisant selon eux à une société du renoncement et de l’hyper réglementation en matière d’environnement, dans laquelle les forces créatrices de l’économie, de la science et de la technique seraient bridées. D’autres au contraire placent en tête de la hiérarchie des valeurs l’épanouissement personnel, ils désirent privilégier un mode de vie nouveau et respectueux de l’environnement. Ils plaident pour un développement alternatif et la recherche de solutions nouvelles permettant de concilier épanouissement de l’individu, de la société et protection de l’environnement. Ils prônent le respect, la solidarité, la cordialité et l’humanité. Ils privilégient le naturel, les loisirs verts, un mode de vie « bio » et le respect (le retour ?) des traditions. Ils souhaitent l’instauration de contre-valeurs à la société de performance et de flexibilité mais restent pessimistes quant à la perspective de voir émerger et se réaliser des valeurs alternatives. Il existe dans ce groupe une nette contradiction entre la pensée en matière de souhait pour l’avenir de la société humaine et son environnement et l’action conséquente au niveau individuel ou public. Pour les plus jeunes les contre-valeurs positives sont des voeux pieux pour le futur. Ils ont une attitude plus critique et souvent contradictoire vis à vis du présent qui est sans doute l’expression (pour certains) des sombres perspectives d’existence qui sont les leurs : cité, chômage, drogue, SIDA, délinquance, prison...

      

      

      

       C.3.2. Développer ses facultés d’adaptation et d’auto-formation :

      

       Cette réflexion permanente sur le contenu du message mais surtout sur ses enjeux doit permettre au professeur de formuler des objectifs réalistes adaptés au public afin que les élèves s’approprient ces aspects théoriques et que ceux-ci déclenchent une prise de conscience qui devrait favoriser un changement d’attitude ou des réinvestissements dans la vie quotidienne développant ainsi l’autonomie et le sens des responsabilités. La loi oblige en effet à l’assistance à personne en danger, point essentiel de la morale universelle sur lequel sont établis les droits de l’homme : la responsabilité de chacun devant autrui. Comme le soulignait déjà Georges Mauco en 1975 l’évolution sociale accélère une émancipation de l’individu qui exigera une plus grande maturité individuelle, les jeunes devront trouver davantage en eux mêmes, la maîtrise de leurs désirs, maîtrise que leur imposaient jadis, les interdits extérieurs. Se former tout au long de son parcours professionnel impose de chercher à réactualiser et approfondir ses connaissances en suivant l’évolution des contenus scientifiques et des concepts du champ disciplinaire Santé Environnement mais aussi en privilégiant une approche pragmatique qui permet d’identifier des problématiques pertinentes, concrètes et actualisées favorisant la construction de savoirs ciblés et le développement des compétences fixeées. Appréhender son environnement (et celui de ses élèves s’il diffère), les informations qui y circulent, les événements de la vie quotidienne, les personnes qui y vivent, leurs modèles de pensée, leurs croyances, leurs habitudes de vie, leurs contraintes... permet de prendre en compte ces données lors de la formulation de l’objectif général mais aussi d’identifier sur le plan local les services et les structures concernés par la problématique et donc d’adapter le message et les stratégies éducatives choisies. Se former c’est donc aussi découvrir, tester, mettre en oeuvre des stratégies pédagogiques diverses et variées afin d’évaluer leur efficacité éducative et de les employer à bon escient.

      

      

      


Compétence 4 : Mettre en oeuvre des stratégies pédagogiques éducatives

      

       La recherche chez l’élève du développement de l’esprit critique implique la mise en oeuvre de stratégies pédagogiques ciblées, permettant de l’amener à l’exercice du jugement critique. L’esprit critique est d’abord réflexif et impose de se mettre en question. Il permet de discerner un fait avant de porter un jugement en se gardant de préjugés internes ou de pressions externes. Développer l’esprit critique c’est développer la vigilance de manière à dépasser les représentations idéalisées, irrationnelles, les stéréotypes racistes, sexistes..., la pensée commune. Amener les élèves à définir une problématique à partir d’une situation de la vie sociale et/ou professionnelle, permet d’opérer une distinction entre thème d ’étude et opinion spontanée. Le professeur doit donc être capable de penser en termes de problème à résoudre et non pas en termes de discipline, de connaissances à transmettre.

      

      

       C.4.1 Mettre en oeuvre une démarche de résolution de problème :

      

       Le but à atteindre est la résolution de problèmes complexes abordés par une approche globale, en tirant profit de l’éclairage de plusieurs disciplines et de la complémentarité de leurs méthodes et de leurs techniques. En effet, quand dans la vie quotidienne, un individu veut résoudre un problème concret, il ne commence généralement pas par s’adresser à une discipline donnée. Il commence par examiner les savoirs disponibles sur le problème qui le préoccupe sans prêter attention à l’origine disciplinaire de ces savoirs. Il n’approfondira pas les concepts ou les théories empruntées sauf si cela s’avérait nécessaire pour son projet. Il construira ainsi ce que G. Fourez (1991) appelle un « îlot de rationalité » autour de son projet. Il est donc indispensable lors de la mise en oeuvre d’une démarche de résolution de problème, d’amener l’élève à construire ces îlots de rationalité. La finalité éducative étant de permettre à l’élève de débusquer les savoirs disponibles et de les utiliser dans une approche globale. Ainsi l’élève sera encouragé à s’investir dans la compréhension de différents concepts, c’est à dire de repérer un niveau de compréhension donné (au sens de réseau de représentations et de notions articulées) afin de les rendre opérationnels dans la résolution d’autres problématiques. Ainsi l’éducation Santé Environnement est une éducation constructive permettant des apprentissages conceptuels dans un modèle systémique.

      

      

       C.4.1.1 Privilégier l’approche globale et l’analyse systémique dans la construction du savoir :

      

       Au cours du 20ème siècle, les connaissances se sont étendues, compliquées, organisées et l’utilisation d’une schématisation de la globalité des problèmes est apparue d’autant plus nécessaire que l’approche analytique, le découpage du réel en éléments simples et indépendants de manière à pouvoir les considérer de façon linéaire ne permettait plus de les résoudre. Les sciences de la gestion ont considéré l’entreprise comme un système, le maillon élémentaire de l’écologie est l’écosystème, la médecine s’est tournée vers une vision plus globale de la santé et de la prévention et aujourd’hui l’urbanisme, l’économie, l’informatique utilisent l’approche systémique. Un système est caractérisé par ses flux (entrée et sortie), ses composants et leurs interrelations (réseaux). Il est donc éminemment dynamique, mû par des forces et régulé par un retour des effets aux causes. L’approche systémique permet ainsi de dépasser le stade descriptif de l’objet, de la situation pour s’intéresser au fonctionnement et aux liens et interactions. C’est donc un outil permettant d’appréhender une situation donnée dans sa globalité, en revenant plusieurs fois mais à des niveaux différents, sur ce qui doit être compris et assimilé. Ainsi un concept nouveau peut-être étudié sous des angles différents et replacé dans d’autres contextes, ce qui conduit à l’enrichissement mutuel des concepts grâce à des éclairages indirects plutôt qu’à l’utilisation mécanique d’une définition souvent trop précise voire sclérosante. L’acquisition des faits ne pouvant être séparée de la compréhension des relations qui existent entre eux. Le professeur doit donc mettre en oeuvre de réelles activités d’apprentissage de l’analyse d’une problématique et surtout faire percevoir aux élèves qu’il est fondamental d’appréhender la situation étudiée comme un système complexe, qu’il faut cerner, dont il faut identifier les éléments et les flux (en terme par exemple de causes et conséquences), les hiérarchiser afin de comprendre pour agir avec discernement et efficacité. Dans un va et vient répété entre une approche globale et une approche analytique, le professeur amène les élèves à comprendre les différents éléments du système et ainsi à appréhender de façon coordonnée les différents aspects du réel. Amener les élèves à analyser une problématique donnée suppose également de développer les moyens d’expression et de communication mais aussi d’investigation, nécessaires à l’approfondissement des connaissances.

      

      

       C.4.1.2 Développer des moyens d’investigation :

      

       Les moyens d’investigation mis en oeuvre diffèrent d’une problématique à une autre, allant de l’étude de documents divers (presse, revues de vulgarisation ou spécialisées, ouvrages, sites web, logiciels, vidéos...) aux observations relevées dans le cadre de vie en passant par l’identification de structures de protection de la santé, de l’environnement, du consommateur ou encore de la vie associative. Demander aux élèves d’effectuer des observations, des enquêtes ou autres démarches, c’est contribuer à développer leur curiosité, leur sens de l’observation, de l’analyse et leur autonomie de manière à ce qu’ils s’impliquent dans les démarches de la vie quotidienne.

      La mise en oeuvre de ces démarches d’investigation par les élèves présuppose que le professeur soit informé des différents supports de ressources documentaires et des modalités pour y accéder. Mais aussi qu’il ait lui-même effectué des démarches auprès de différentes structures « types » locales de manière à mieux aider les élèves dans leurs propres démarches. De même, pour penser en terme de problèmes, le professeur doit avoir un bon réseau d’informations et des contacts au niveau local et national, afin de se tenir au fait de l’actualité, d’obtenir suffisamment d’informations, de pouvoir les trier et les vérifier.

      

      

      

       C.4.1.3 Identifier des problèmes concrets et permettre aux élèves de se les approprier :

      

       Afin de mettre en oeuvre une démarche de résolution de problème, il est nécessaire d’identifier et de choisir des problèmes réels, concrets à proposer aux élèves afin de les amener à s’interpeller (« en quoi suis-je concerné directement ou indirectement par ce problème? »), à s’étonner, à s’intéresser, à se motiver, à s’interroger, à se sensibiliser, à appréhender la complexité et à s’impliquer. Le professeur amène ainsi les élèves à exercer leur esprit critique en leur demandant de faire la part de l’exagération, de la généralisation et du sensationnel. Cette étape doit aussi nécessairement laisser une place à l’approche affective afin de développer des attitudes de respect et de solidarité.

      

      

       C.4.1.4 Accompagner la résolution de problème et développer l’esprit critique :

      

       Résoudre un problème concret est une véritable activité d’apprentissage qui amène l’élève à concevoir une procédure en utilisant les connaissances qu’il a acquises dans différentes disciplines et par son expérience personnelle. C’est aussi au professeur de cerner les « îlots de rationalité ». C’est à dire les savoirs disciplinaires nécessaires à la compréhension et à la résolution du problème étudié. Il lui revient de ne pas se laisser aller à une tendance « professorale » qui le pousse à approfondir les concepts ou les théories empruntées plus que cela s’avère nécessaire, mais au contraire de repérer un niveau de compréhension donné (réseau de représentations et de notions articulées) afin d’amener les élèves à l’utiliser de manière adéquate. Le professeur se doit également de proposer différentes situations afin qu’à partir de diverses procédures élaborées, l’élève soit capable de rechercher les constantes et d’en tirer les généralités ou des principes afin de structurer ses apprentissages et d’appréhender l’abstraction. Des situations nouvelles lui permettront alors de transférer ses acquis. L’analyse de la problématique a permis aux élèves de rechercher et de proposer des solutions alternatives dépassant ainsi la simple prise de conscience pour aboutir à une proposition d’actions. La recherche d’une information fiable et son traitement (repérer les thèses et hypothèses, les savoirs, les incertitudes; identifier les sources, les enjeux, les pouvoirs, les pressions; analyser les données statistiques, appréhender la multiplicité des choix et mettre en évidence leurs critères... ) entraînent l’exercice de l’esprit critique. Car critiquer c’est proposer des hypothèses, les confronter à l’expérience, aux données publiées ... de manière à proposer des solutions argumentées à la problématique de départ. Pilier de la démocratie, l’esprit critique se soumet à la discussion, s’enrichit, s’affirme ou se nuance dans la contradiction. Il est donc indispensable de prévoir pendant la séquence un temps de confrontation de manière à préparer les élèves à l’engagement dans la cité.

      

      

       C.4.2 Organiser et gérer des débats et des projets en vue de développer une attitude de responsabilité et de respect, un comportement de prévention ainsi que l’implication citoyenne :

      

       L’organisation d’un débat démocratique, la simulation (par ordinateur ou par jeu de rôles) ou encore la mise en oeuvre d’un projet d’action permettent de garantir la valeur éducative de l’enseignement par le développement d ’attitudes et de comportements ciblés. En effet ces stratégies pédagogiques permettent de mettre en évidence les contraintes socio-politico-économiques et leurs liaisons éventuelles avec des contraintes matérielles. L’approche praxique, véritable éducation liée à la participation à des activités ayant un objectif social et utilisant les matériaux des situations sociales typiques, permet le développement de l’esprit critique et la diversification des rythmes et des modalités d’apprentissage. Lorsque l’action réelle n’est pas envisageable pour de multiples raisons, le professeur peut mettre en oeuvre une simulation. Il s’agit de reconstituer un modèle de la réalité et de le faire fonctionner comme s’il présentait un des aspects de cette même réalité. Elle entraîne à la résolution intuitive de problèmes complexes, à la perception des antagonismes, des conflits, des rapports de force, des blocages. La simulation par ordinateur permet à l’élève de manipuler fictivement les paramètres et de ressentir les effets et les conséquences de ses actions de ses choix. Les jeux de rôle quant à eux, imposent à l’élève de manipuler fictivement les paramètres, d’argumenter et de défendre ses choix tout en prenant conscience des contraintes et des limitations.

      

      

      L’approche pragmatique regroupant approche globale, analyse systémique et résolution de problème permet l’acquisition d’objectifs cognitifs et le développement de capacités transversales (s’informer, analyser, communiquer...). L’approche praxique ou approche active, véritable apprentissage par l’action en situation permet d’atteindre des objectifs émotionnels, éthiques et comportementaux influençant le fondement des valeurs et des attitudes, elles-mêmes bases de l’agir. Ces différentes approches ainsi que la mise en oeuvre de débat ne sont pas successives mais en interaction constante, se complétant en terme de finalité éducative et favorisant la différenciation des apprentissages. Ces actions éducatives permettent de mobiliser, consolider les acquis et les apprentissages, de développer des compétences de plusieurs disciplines. Il s’agit véritablement de donner du sens aux connaissances construites pour que l’élève puisse exercer des choix raisonnés et développer un comportement de citoyen responsable. Si la classe est un lieu de « libre parole » et de construction d’une citoyenneté active, alors, elle nécessite un adulte sachant l’encadrer et y faire respecter les règles et les droits (droit à la parole, à l’expression, à l’écoute, au respect de la parole en tant que telle). Le professeur doit veiller à ce que chaque élève, chaque individu, chaque sujet de parole, chaque citoyen soit capable de se maîtriser (repérer l’agressivité et la passion), d’accepter que sa parole s’argumente et soit soumise à la critique d’autrui. La mise en oeuvre de ces stratégies éducatives implique que le professeur se soit donné les moyens de l’action (autorisation administrative et parentale, aménagement horaire, budget, partenariat...). Oser organiser un véritable débat, concevoir et mettre en oeuvre un projet d’action nécessitent de croire en ces stratégies éducatives et se sentir apte à les mener. Cette aptitude peut être conférée par l’implication sociale et politique du professeur permettant l’établissement de contacts privilégiés avec des partenaires extérieurs, par une formation à la maîtrise de ces outils, par une opportunité de participer à une dynamique ou encore par une volonté de créer et de mener des expériences pédagogiques.

      

      

      

      

      

      

      

      

      Nous avons tenté dans ce chapitre de mettre en évidence les liens structurels existant entre l’éducation à l’environnement et l’éducation à la santé. L’éducation à l’environnement et l’éducation à la santé sont deux champs éducatifs complexes qui requièrent des approches comparables (analyse systémique, approche praxique, résolution de problème, mise en oeuvre de débat démocratique..) et la mobilisation de connaissances pluridisciplinaires (Sciences de la vie et de la matière, Sciences humaines, Droit...). Elles développent des attitudes de respect et de solidarité et visent à modifier les comportements en vue de gérer au mieux santé et environnement tant au plan individuel que collectif. Nous avons ainsi, à travers l’étude des instructions officielles émanant du ministère de l’Education nationale, portant sur une trentaine d’années, cherché à cerner les finalités du champ éducatif Santé et Environnement et à mettre en évidence les stratégies éducatives qui lui sont spécifiques.

      Les problèmes de Santé Environnement touchent l’ensemble de la population dans un domaine où la part d’inquiétude est forte. Celle-ci est engendrée et entretenue par une information ponctuelle et superficielle privilégiant les «faits divers». L’éducation Santé Environnement est un moyen de prévention des risques collectifs et individuels lorsque ceux-ci sont identifiés et peuvent être maîtrisés, elle sera certainement l’outil indispensable pour la mise en application du principe de précaution lié au concept de développement durable si on admet sa contribution à l’éducation à la citoyenneté.

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      


Chapitre 2
Santé Environnement: un champ disciplinaire en permanent renouvellement

      

      

      

      

      

      

      

      

      

      

      

      

      

       La tendance de l’esprit humain à simplifier en «vrai» ou «faux» ne permet pas d’effectuer la synthèse des connaissances disponibles nécessaire à une évaluation objective des faits scientifiques : «Ainsi, il y a quelques dizaines d’années, le sucre était considéré comme mauvais pour la santé; aujourd’hui le cholestérol semble représenter pour la plupart d’entre nous un risque bien moindre qu’il n’était apparu auparavant.» (Rozin, in Apfelbaum, 1998, p143) De même on associe généralement le mot hormone à une substance nocive contrairement à celui de vitamine. Concernant le concept de micro-organisme, il serait nécessaire de réconcilier les citoyens avec celui-ci et cesser de rêver à une alimentation voire à un milieu de vie stériles. Pour cela l’appropriation par le grand public de notions concernant les fermentations et leurs rôles dans les productions alimentaires où l’immunologie semble indispensable à une prise de décision en terme d’acceptation du risque. « Il est donné de la recherche scientifique une image simplifiée et caricaturale où l’on passerait de l’ignorance à une compréhension complète avec une seule étude. Il n’est donc pas étonnant que le grand public prenne trop au sérieux les derniers résultats publiés sans s’interroger sur leur portée réelle, sans les situer dans le contexte particulier dans lequel l’étude s’est déroulée, ni sans les mettre en perspective avec les résultats d’autres études disponibles. Pire, il arrive parfois que les auteurs d’une étude manquent de ce minimum d’esprit critique sur leur propre travail ! Ainsi, le public profane prend les résultats d’essais cliniques pour des résultats définitifs au lieu de les voir comme une des nombreuses recherches nécessaires, chaque fois dans des conditions et à des doses différentes, pour faire progresser notre compréhension des capacités et des limites d’une thérapeutique.» ( Rozin, in Apfelbaum, 1998, p142)

      « Chacun doit aujourd’hui admettre que la connaissance d’un fait, aussi évidente qu’elle nous paraisse après coup, n’acquière que très lentement son aveuglante clarté. L’évidence autrement dit ne se trouve pas au début de l’histoire mais à la fin. Pour que le lien d’un agent infectieux et d’une maladie devienne visible aux yeux de tous, il faut un long travail progressif de « mise en évidence », travail auquel participent les institutions multiples que décrivent les historiens et sociologues des sciences : préconceptions, instruments, écoles et cliques, colloques et journaux, médias et manuels. » (Latour, mars 1999, p81) «Nos systèmes d’éducation n’enseignent pratiquement rien ni de la probabilité ni de l’analyse coûts-bénéfices, ni de la nutrition ni de la nature des sciences. Ces manques sont souvent exploités par la publicité, la presse et aussi, il faut le dire, par un certain nombre de chercheurs et de praticiens en médecine.» (Rozin, in Apfelbaum, 1998, p137) Un eurobaromètre sur un échantillon de 16000 personnes réalisé en 2001 révèle notamment que les connaissances scientifiques des européens n’ont pas progressé au cours des 10 dernières années.

      Le professeur du secondaire chargé de l’éducation Santé Environnement se doit donc de mener une réflexion rigoureuse sur les contenus de son champ disciplinaire à savoir les concepts opérants, les connaissances scientifiques et techniques ainsi que les connaissances d’usage social afin d’avoir une vision globale des situations à risques qu’il va aborder et de leurs enjeux. L’éducation Santé Environnement vise notamment à la prévention des conduites à risques. Celle-ci passe par une information sur les risques et les situations à risques. Le professeur doit donc maîtriser les connaissances scientifiques de base (en biologie, chimie, biochimie, sciences économiques et juridiques...) afin de développer une véritable éducation scientifique. Cette maîtrise sous-entend une analyse du message informatif afin de repérer les éventuelles alertes anxiogènes, les éléments de surinformation et de désinformation, les sources ainsi que les pouvoirs et les intérêts mis en jeu. Ainsi le professeur pourra être un médiateur entre les savoirs scientifiques produits par les experts, la vulgarisation des journalistes, les discours des décideurs et les élèves. Mais pour développer une éducation scientifique, le professeur doit aussi donner confiance aux élèves dans leur capacité d’appréhender les différents domaines scientifiques et techniques concernés par les problématiques (ce qui sous-entend qu’il en soit lui-même convaincu). La curiosité, le désir de découvrir, de comprendre et de maîtriser vont de pair avec le sentiment d’être concerné par les situations présentées quel que soit le niveau. Le professeur se doit de répondre aux préoccupations quotidiennes, locales ou plus lointaines de son public mais aussi l’interpeller, l’intéresser en lui fournissant matière à la réflexion, à la confrontation et à l’action afin qu’il s’implique dans la gestion des risques. Si éduquer à la santé et à l’environnement c’est prévenir pour mieux les gérer les situations à risques c’est aussi promouvoir la santé et considérer l’environnement comme une composante du développement durable. Enfin, éduquer à la santé et à l’environnement c’est accompagner une prise de risque raisonnée et acceptée qui présuppose le développement du sens critique afin d’amener l’élève à exercer pleinement sa responsabilité d’éco-bio-citoyen. Le professeur a alors comme projet de développer des maturités individuelles, des adultes citoyens revendiquant leur place dans les processus de décision et notamment dans les domaines de la santé et de l’environnement.

      

      Nous allons dans ce chapitre, présenter les concepts opérants dans le champ de la santé et de l’environnement à savoir : risque et gestion des risques, sécurité, prévention des conduites à risques, promotion de la santé et de l’environnement et précaution que nous illustrerons en abordant deux domaines du champ disciplinaire Santé Environnement. La qualité des eaux d’alimentation et les infections nous permettront de mettre en évidence pour chacun d’eux l’état des connaissances, les incertitudes, les débats et les enjeux. Ainsi, les chapitres 1 et 2 nous permettront de contextualiser le questionnaire soumis aux professeurs de lycées professionnels chargés de l’éducation Santé Environnement présenté et analysé dans un troisième chapitre.

      

      

      

      

      


1. Concepts opérants dans le champ de la santé et de l’environnement

      

       En tant que préventeur, le professeur du secondaire chargé de l’éducation Santé Environnement peut s’inspirer de l’Enseignement pour la Prévention des Risques professionnels afin de s’approprier le concept de prévention et la démarche d’évaluation des risques. L’historique de la construction des concepts de santé et d’environnement lui permettra de comprendre l’évolution vers la promotion dont l’éducation est un moyen et qui contribue à conférer aux individus les moyens d’assurer un plus grand contrôle sur leur environnement et leur propre santé. La prévention des risques sanitaires et environnementaux se fait notamment par le biais de normes et il est fondamental que le professeur ait connaissance des processus d’élaboration, des (contre)expertises menées (des difficultés qui sont les leurs) afin de bâtir son message informatif et développer une véritable éducation citoyenne dans le domaine de la santé et de l’environnement. Mais pour assurer son rôle de préventeur, le professeur doit également s’approprier les concepts de danger et de risque. Pour optimiser la gestion des risques, il s’avère indispensable de caractériser les risques et pour ce faire, une démarche d’évaluation des risques doit être entreprise. Le professeur doit donc être initié aux différents outils d’identification et d’évaluation des risques et être conscient des difficultés rencontrées ainsi que de l’incertitude qui caractérise les problématiques de Santé Environnement. Afin de s’adapter à son public d’adolescents voire de jeunes adultes, il est nécessaire que le professeur appréhende le processus d’acceptation du risque perçu et les différents facteurs qui interviennent dans celui-ci.

      

      

      


1.1. Appréhender le danger pour maîtriser le risque

      

       «Le développement technologique moderne s’est accompagné de l’apparition de risques jusqu’alors inconnus de l’homme, qu’il s’agisse de ceux liés aux techniques du quotidien, aux grands appareils de production, aux réseaux d’infrastructures ou aux biotechnologies.» (Godard, 1997) C’est l’homme qui par son activité fait courir des risques à lui même et à son environnement. Comparés aux risques du début de l’industrialisation, il est évident que les risques actuels sont plus importants dans le sens où ils apparaissent plus durables dans le temps (biopersistance des pesticides dans l’écosystème aquatique, durée de vie des produits chlorés comme les fréons dans la stratosphère...), concernent des territoires immenses (on trouve du plomb dans les calottes glaciaires) et sont souvent irréversibles. De plus ces nouveaux risques font éclater les structures et les compétences. Prenons l’exemple d’une catastrophe nucléaire, il apparaît difficile de trouver les personnes globalement compétentes et de rechercher les responsabilités. Ces dangers deviennent de plus en plus insupportables à l’ensemble de la population, et l’on peut observer une situation tout à fait paradoxale : plus les dangers sont maîtrisés, plus le risque diminue, plus la part résiduelle du risque apparaît insupportable à une époque où les risques de mortalité involontaire n’ont jamais été aussi faibles. Malgré l’amélioration objective de la sécurité individuelle, la population prend conscience d’un nombre croissant de risques et considère l’avenir comme de moins en moins désirable. De nos jours, l’attitude vis-à-vis des risques modernes de civilisation est probablement souvent critique parce que l’idée du progrès civilisateur au nom de laquelle on a souvent promis de diminuer, voire de supprimer les conséquences négatives non voulues (c’est le cas des infections bactériennes grâce à l’usage intensif d’antibiotiques), ne se réalise qu’à certaines conditions voire pas du tout. Nous parlons ici de risques mais il semble utile de distinguer risques de dangers. En effet le terme de risque est ambigu car il évoque à la fois le type de dommages (c’est à dire les conséquences de l’événement dangereux sur l’homme ou sur l’environnement) que le sujet peut subir et la probabilité de survenue de ce dommage.

      Un danger selon la définition qu’en donnent le Robert, le Littré et le Larousse: «c’est ce qui menace ou compromet la sécurité ou l’existence d’une personne ou d’une chose; c’est la situation qui en résulte». Le danger évoque le caractère potentiellement pathogène d’une substance ou encore le caractère potentiellement traumatique d’une conduite ou d’un comportement. Dans le cadre de l’alimentation, un danger est une propriété biologique, chimique ou physique potentiellement capable de rendre une denrée impropre à la consommation. On peut distinguer le phénomène dangereux : cause capable de provoquer une lésion ou une atteinte à la santé, de la situation dangereuse : toute situation dans laquelle une personne est exposée à un ou plusieurs phénomènes dangereux (l’exposition étant la rencontre d’un danger par un sujet), de l’événement dangereux : événement susceptible de causer un dommage. Le dommage s’entend alors, comme atteinte à la santé ou à l’intégrité de la personne mais aussi comme atteinte aux biens (dégâts matériels) et à l’environnement. En cuisine, la lame du couteau constitue un danger. Lorsque le cuisinier découpe de la viande, elle peut entrer en contact avec ses doigts et causer des dommages de la peau (écorchure, entaille...). Le cuisinier lorsqu’il découpe de la viande est exposé au risque de coupure. Nous pouvons prendre comme illustration de ces dommages l’annexe I du décret du 15 mai 1997 relatif à la classification des déchets dangereux qui fixe les propriétés de danger : explosive, comburante, inflammable, irritante, nocive, toxique, cancérogène, corrosive, infectieuse, toxique vis-à-vis de la reproduction, mutagène, dangereuse pour l’environnement (qui peut présenter des risques immédiats ou différés pour une ou plusieurs composantes de l’environnement). Dominique Voynet exprimait ses craintes après le naufrage du pétrolier Erika en ces termes : « Les rejets du pétrolier maltais contiennent une proportion de substances toxiques pour l’homme, notamment cancérigènes, suffisantes pour constituer un danger réel qui induirait un risque pour les personnes qui y seraient exposées de manière importante et répétée, plus particulièrement par contact cutané  ». (La Santé de l’homme, mars-avril 2000) Dans ce cas le danger est la contamination par des substances toxiques, les opérations de nettoyage des plages sont des situations dangereuses lors desquelles le contact cutané (événement dangereux) peut se produire. Le danger est réel, mais compte tenu de la durée des opérations de nettoyage, le risque sanitaire semble négligeable.

      

      Pour combattre efficacement un danger, il faut bien le connaître et pouvoir apprécier son importance pour adapter les moyens de lutte. Il est nécessaire d’identifier la nature, la gravité et la fréquence de ce danger de manière à estimer la probabilité de sa manifestation : le risque.

      

      

      

       1.1.1. Le danger et ses attributs

      

       L’identification du danger est la base de tout plan de gestion. Un danger peut être caractérisé par trois attributs : sa nature, sa gravité et sa fréquence.

      

      La nature du danger :

      

      Identifier un danger c’est: préciser son origine et son mode d’action.

      Le mercure est un métal lourd présent dans le sol et dans l’eau. Il peut avoir une origine géologique issue de la couche-mère ou résulter de process industriels. Dégazé naturellement de l’écorce terrestre (environ 3000 tonnes par an) ou produit par l’homme (environ 4000 tonnes par an par combustion des combustibles fossiles et incinération des ordures ménagères), le mercure sous sa forme volatile est emporté par les vents, lessivé par les pluies et se retrouve dans le sol et les eaux de surface océaniques surtout sous forme oxydée. Dans des milieux anaérobies ou faiblement oxygénés, le mercure sous forme oxydée est le substrat d’une méthylation obtenue par l’intermédiaire de bactéries. Grâce à leur petite taille, les molécules de mercure méthylé s’infiltrent sans peine au travers des membranes biologiques des végétaux aquatiques mais aussi des poissons et crustacés où elles s’accumulent dans leurs tissus. L’homme est contaminé par ingestion d’aliments contaminés. Le méthylmercure est transporté jusqu’au cerveau.

      

      

      La gravité d’un danger:

      

      Elle s’apprécie selon le point de vue envisagé : la santé publique ou l’économie. La gravité d’un danger sur le plan de la santé publique, peut s’évaluer par la mortalité, les complications, les séquelles...

      Depuis la tragédie de Minamata au Japon où entre 1950 et 1960, 48 habitants sont morts après avoir consommé des poissons contaminés par du mercure, on sait que le mercure est un neurotoxique et que son ingestion peut-être fatale. Les enfants de mères contaminées par le méthylmercure manifestent un retard de développement neurologique portant sur le langage, la mémoire et l’attention et pouvant influer sur les performances scolaires.

      Le concept de mortalité ne permet pas à lui seul de définir la gravité d’un danger, en effet certaines technologies comme la production d’électricité à partir de radionucleides sont considérées comme dangereuses alors qu’elles n’ont pas à leur passif un nombre de morts important. Le dommage est à distinguer de la survenue d’une pathologie, ainsi la réparation accordée pour une maladie professionnelle le sera sur la base du dommage subi. La gravité se chiffre par un budget d’interventions médicales, d’hospitalisations, d’arrêts de travail, de diminution de productivité. Le poids socio-économique d’une maladie est toujours difficile à évaluer, car il faut tenir compte des différentes composantes : coût médical, (consultations, examens complémentaires, médicaments, soins, hospitalisations) et coût social (absentéisme, perte de productivité, retraites anticipées, invalidités, décès prématurés). La gravité d’un danger peut aussi s’évaluer uniquement sur le plan économique : par exemple par les retentissements commerciaux par rupture de contrat et suspicion portant sur la réputation du vendeur pouvant entraîner la fermeture de marchés nationaux ou internationaux. C’est le cas de la filière viande de boeuf avec la contamination par le prion ou des fromageries et charcuteries impliquées dans des toxi-infections alimentaires collectives.

      

      

      La fréquence d’un danger :

      

      Elle peut-être envisagée pour les manifestations comme pour l’agent causal. Le recensement des maladies n’est pas facile et varie en fonction des modalités de déclaration. Dans de nombreux pays des structures d’épidémio-surveillance ont été mises en place. Pour la fréquence des agents dangereux il est possible d’envisager des plans de surveillance. Certains d’entre eux sont rendus obligatoires dans les pays de l’Union Européenne. Les renseignements obtenus permettent de mesurer la menace mais aussi de la localiser.

      Chez l’homme, les rapports entre la pollution atmosphérique et la santé ont surtout été étudiés dans des enquêtes épidémiologiques. Ce type d’enquête est particulièrement efficace pour l’étude des effets immédiats et à court terme sur la mortalité et la morbidité liés à des expositions aiguës à la pollution atmosphérique : en décembre 1952, après seulement une douzaine d’heures d’un brouillard très dense et d’accumulation de contaminants atmosphériques, de nombreux habitants de la région de Londres commencèrent à ressentir des troubles respiratoires. A la fin des 4 jours que dura cet épisode, le nombre de décès attribuables à la pollution a été évalué à 4000 (sur une population de 8 millions d’habitants). Les personnes âgées et les très jeunes enfants furent les plus touchés (70 % des décès). Les teneurs en fumées noires et en dioxyde de soufre ont été de 5 à 6 fois plus élevées qu’en temps normal. Dans les semaines qui suivirent, une épidémie de grippe provoqua un rebond de mortalité.

      Par contre, les enquêtes épidémiologiques traitant des effets chroniques liés à des expositions prolongées sont plus problématiques. De nombreuses études ( étude européenne ERPURS : évaluation des risques de la pollution urbaine pour la santé (1995), études de l’Ecole de Santé Publique de Harvard aux Etats Unis) ont établi l’existence d’une relation entre la pollution atmosphérique et diverses maladies respiratoires comme l’asthme, la bronchite ou l’emphysème. L’asthme et les allergies respiratoires constituent un problème important de santé publique. En 15 ans, le nombre de décès dus à l’asthme n’a cessé d’augmenter dans tous les pays industrialisés. Selon l’Inserm en France un adulte sur 12 est asthmatique ainsi que 6% des enfants d’âge scolaire. Selon une monographie « Allergie respiratoire, asthme, environnement » publiée par le Conseil supérieur d’hygiène publique de France en juillet 1993, il est probable que, si certains facteurs génétiques jouent un rôle dans le développement de la maladie, les facteurs d’environnement seraient seuls capables d’expliquer l’augmentation récente de la prévalence et de la sévérité de la maladie. Une vaste étude épidémiologique, lancée sous l’égide de la Communauté Economique Européenne, impliquant 53 centres répartis dans 20 pays est actuellement en cours pour étudier de façon rigoureusement standardisée les facteurs de risque de l’asthme et de l’allergie. L’asthme professionnel, qui représente 6 % de la totalité des asthmes, est devenu la plus fréquente des maladies respiratoires professionnelles dans les pays industrialisés. Ce type d’asthme, qui ne guérit presque jamais une fois déclaré, peut en revanche être prévenu. Les boulangers en sont les premières victimes (23 % d’entre eux en sont atteints), du fait de leur contact avec la farine qui contient de puissants allergènes. Les secondes victimes sont les personnes manipulant des polyuréthanes: peintures, colles et mousses plastique en milieu industriel. C’est l’Observatoire national de l’asthme professionnel, chargé du recensement qui a tiré la sonnette d’alarme à Nice, fin janvier 2000. La déclaration n’étant pas obligatoire, la plupart des gens atteints ont peur de perdre leur emploi s’ils le signalent.Revue du palais de la Découverte, avril 2000) D’autres études ont démontré que la pollution de l’air pourrait être considérée comme un facteur de causalité du cancer du poumon. Ces enquêtes ont clairement démontré l’existence d’un facteur urbain relié aux maladies respiratoires et au cancer du poumon. Toutefois l’interaction de plusieurs contaminants ou effet synergique (oxydes d’azote et dioxyde de soufre, fumées noires et dioxyde de soufre) rend encore plus difficile la compréhension des effets séparés de chacun d’eux. En effet, dans l’air que l’on respire, les polluants sont tous mélangés et la valeur des études est donc passablement relative. D’autre part d’autres facteurs comme le mode de vie, le milieu de travail, le tabagisme ... interagissent et il semble difficile d’imputer la responsabilité d’une affection ou d’un décès à tel ou tel polluant (hors pollution en milieu professionnel).

      

       1.1.2. Le risque: probabilité de manifestation d’un danger

      

       Le risque s’entend comme un danger auquel on s’expose de manière volontaire ou non dans l’espoir parfois d’obtenir un avantage. Selon Lucien Abenhaim Directeur du Centre d’épidémiologie clinique et de recherche en santé publique de Montréal (Apfelbaum, 1998, p233) : «c’est une probabilité qui lorsqu’elle se réalise, se manifeste par la maladie ou la mort. (Le même raisonnement peut s’appliquer au risque d’événements heureux : on parle alors plus volontiers de «chance»)» Ainsi le risque désigne-t-il de manière générale, la possibilité de conséquences indésirables de nos actions.

      En 1999, des chercheurs ont lancé un appel à moratoire sur les essais cliniques de xénogreffes. La demande de greffes ne cesse d’augmenter alors que l’offre d’organes humains stagne. La transgénèse offre aujourd’hui des outils qui permettent d’humaniser les porcs afin de contrer les réactions de rejet des xénogreffons. Malheureusement, les solutions techniques envisagées ont pour effet de faciliter la transmission à l’individu receveur de rétrovirus jusqu’alors confinés à l’espèce porcine. Le danger est donc l’infection du receveur par un virus porcin voire la transmission de cette infection au personnel soignant, à la famille puis à la population entière. Le risque de transmission d’une nouvelle maladie à la collectivité est impossible à quantifier pour le moment et c’est pourquoi un appel à moratoire international sur les essais cliniques de xénogreffes a été lancé. Il devrait permettre de peser un bénéfice individuel face à un risque collectif. ( Millet, mai 1999)

      

      Mais, le risque n’existe que si l’homme est exposé à la situation dangereuse, ainsi le risque représenté par une substance dangereuse est nul si l’organisme n’est pas exposé à cette substance. Le risque dépend de l’exposition, du type de pathologie induite pour une même exposition et du dommage qui résulte de l’atteinte. La notion de risque associe deux composantes : la probabilité de survenue d’un dommage. Rousseau dans une lettre à M de Voltaire à propos du tremblement de terre à Lisbonne en 1755, distinguait les deux dimensions de la notion de risque. Ainsi, selon lui si le phénomène était naturel dans son occurrence, il était attribuable aux hommes dans ses conséquences de part la construction d’environ 20 000 maisons de plus de 6 étages dans cette zone sismique.

      La survenue d’un événement non désiré peut être probabilisée, en se fondant soit sur une détermination empirique, expérimentale, soit sur une modélisation mathématique. En santé publique, le risque est généralement la probabilité d’un effet sanitaire nocif affectant un individu exposé à une nuisance ou ses descendants. Selon la norme EN 292-1, le risque est la combinaison de la probabilité et de la gravité d’une lésion ou d’une atteinte à la santé pouvant survenir dans une situation dangereuse. Cette définition constitue une approche quantitative du risque qui pourra être chiffrée dans le cadre de l’estimation du risque en vue de sélectionner ou de définir les moyens et méthodes qui permettront de maîtriser le risque c’est à dire ici de diminuer la probabilité d’apparition des conséquences fâcheuses. Dans certains cas, le risque est limité à la mesure de la gravité des dommages qu’il engendre. Le risque est alors entendu comme la cause capable de provoquer une lésion ou une atteinte à la santé. Employé dans cette acceptation (phénomène dangereux), le mot risque est généralement accompagné d’autres mots précisant son origine ou la nature de la lésion ou de l’atteinte à la santé redoutée : risque de choc électrique, risque d’écrasement, risque de cisaillement, risque d’intoxication, risque de mort... Cette définition constitue une approche qualitative du risque. Cette approche a souvent la préférence du public et des décideurs qui s’intéressent généralement plus au nombre de morts que causera un accident majeur qu’à sa probabilité d’occurrence. En terme de prévention, on s’attachera à évaluer le seuil de gravité des conséquences afin de réduire celles-ci.

      Le risque évolue sous l’influence de différents facteurs appelés : Facteurs de risque. Certains de ces facteurs sont identifiés dans les domaines concernés :

      

      Dans le cadre de la restauration collective par exemple, les facteurs de risque sont :

      _ ceux favorisant l’apport initial de micro-organismes : emploi d’oeufs frais ou de légumes terreux,

      _ ceux favorisant les apports secondaires : non respect des règles de lavage des mains par le personnel,

      _ ceux favorisant la multiplication des micro-organismes : rupture de la chaîne du froid.

      

      En santé publique, l’âge, le sexe, la catégorie socioprofessionnelle, l’usage d’alcool, de tabac ou de drogue sont des facteurs de risque dont la connaissance permet d’affiner la prédiction pour un individu donné (une probabilité personnalisée).

      

      Ces facteurs de risque ont un rôle d’autant plus important que le risque chez les exposés est plus écarté du risque chez les non-exposés. On appelle alors risque relatif, la valeur de l’écart entre le premier et le second. « Une récente expérience a confirmé combien le risque relatif frappe l’imagination et combien la présentation des résultats influence leur interprétation. Un essai finlandais sur l’évaluation d’un traitement préventif de l’infarctus a montré un risque de 27 infarctus pour 1000 patients en 5 ans, contre 41 dans le groupe non traité (traité par placebo). On a constitué par tirage au sort, pour qu’ils soient comparables, deux groupes de médecins à qui l’on a demandé s’ils étaient enclins à prescrire le traitement. Au premier groupe on disait que la diminution relative du risque était de (41 - 27) / 41 = 35 %, tandis qu’au second groupe on indiquait que la différence des risques absolus était de 14 pour 1000 en 5 ans, c’est-à-dire qu’il fallait traiter 1000 patients pendant 5 ans pour éviter 14 infarctus. Le nombre de médecins favorables au médicament se révéla beaucoup plus élevé dans le premier groupe que dans le second. » (Schwartz, mai 98)

      D’autres facteurs peuvent être identifiables mais encore non identifiés au moment de l’étude, d’autres encore sont non identifiables et peuvent être qualifiés de hasard pur. Il n’est donc pas possible d’identifier des process (en restauration collective) ou des sujets (en santé publique) ayant un risque de 0 % ou de 100 %. On peut distinguer de ces facteurs de risque qui permettent de mieux le cerner, un autre facteur appelé facteur causal car il augmente la probabilité d’apparition du danger. La distinction entre facteur de risque et facteur causal est rarement établie car il y a souvent confusion entre corrélation et causalité. Pour Daniel Schwartz, Professeur émérite à la faculté de médecine de Paris-Sud, seule l’expérimentation peut conclure à la causalité d’un facteur donné. « On a ainsi pu obtenir la preuve de la causalité dans le cas de la cholestérolémie pour l’infarctus du myocarde, mais au prix d’un travail considérable. Ce travail peut être moins difficile dans le cas d’expositions professionnelles. Ainsi a-t-on pu mettre en évidence le rôle causal du chlorure de vinyle dans un cancer, l’angiosarcome du foie, et de l’amiante dans les cancers du poumon et de la plèvre. Cependant de telles études sont les moins fréquentes. » Dans le cas le plus fréquent, on vise seulement la présomption de causalité. « Un résultat positif peut déjà suggérer de nouvelles recherches, et permettre de prendre des décisions visant à réduire plausiblement le risque. » D’autre part, « il est souvent possible de guider l’action à partir des facteurs de risque d’une maladie sans se préoccuper aucunement de savoir s’ils jouent un rôle causal. Ainsi, en périnatalogie, on a pu déceler de nombreux facteurs qui, chez la femme enceinte font présager une mauvaise issue de la grossesse. La démarche statistique permet de ne retenir qu’un tout petit nombre d’entre eux qui, judicieusement combinés, déterminent les « grossesses à risque». Pour ces cas sera adoptée une conduite ne visant pas à peser sur les facteurs de risque, dont le rôle causal est ignoré : on recommandera souvent aux femmes des visites plus fréquentes. Cette démarche méthodologique ne nous éclaire pas sur le déterminisme du mal à combattre, mais elle guide l’action, illustrant bien le fait qu’il n’est pas toujours nécessaire de comprendre pour agir. » (Schwartz, mai 1998)

      

      L’analyse des risques doit permettre d’identifier des dangers significatifs potentiels, d’évaluer leur probabilité d’apparition ainsi que le degré de gravité. Ceci induit la détermination consensuelle d’un seuil au-deçà duquel le risque est acceptable. Quand le risque tend à dépasser un niveau seuil admis comme niveau acceptable, il est possible de parler d’étapes, de procédures ou de points à risques. Le Point critique pour un danger est le point de maîtrise du risque. C’est le point (ou étape ou procédure) où il est nécessaire et possible d’exercer une action de maîtrise afin de faire évoluer le risque de telle sorte qu’il conserve ou atteigne une valeur inférieure à la limite de son acceptabilité. Ainsi, la remise à température pour leur distribution des plats cuisinés élaborés à l’avance de 03°c à 63°c, doit se dérouler en moins d’une heure afin d’éviter toute multiplication microbienne.

      

      

      


1.2. La gestion des risques pour leur maîtrise

      

       La gestion des risques correspond à l’ensemble des analyses et des jugements qui ont pour but de réduire la probabilité de l’existence d’un risque inacceptable. Afin de prendre des décisions réglementaires, de mettre en place des solutions technologiques ou éducatives, il est nécessaire d’évaluer les conséquences politiques, sociales, économiques et en terme de santé publique des différents choix possibles. Cette évaluation se doit d’intégrer les différentes parties impliquées dans le processus de gestion des risques : les responsables, les victimes potentielles, les bénéficiaires, les pouvoirs publics, les experts scientifiques et les média. L’analyse des risques est généralement reconnue comme le moyen éprouvé, objectif et fiable de réaliser une évaluation des risques. Pour lutter contre les dangers il faut les identifier, évaluer l’exposition et les dommages, saisir (ou caractériser) les risques et mettre en oeuvre les moyens qui agissant sur les risques de manifestation, réduisent ceux-ci à des niveaux considéré comme acceptables.

      

      

      

       1.2.1. L’évaluation du risque

      

       L’évaluation du risque se déroule en plusieurs étapes : identification du danger et de sa source et évaluation des expositions (mesures des fréquences, des intensités et caractéristiques de celle-ci). Si possible l’étude doit aboutir à la mise en évidence d’une relation exposition-conséquences. On parle alors d’estimation du risque. Le processus d’évaluation des risques comprend trois étapes : l’identification du danger, l’évaluation de l’exposition et de la relation dose-effet(s) et la saisie des risques.

      

      

      1ère étape : identification du danger

      

       Cette première étape implique la reconnaissance de la nocivité des polluants et de leur mélange mais aussi l’identification des groupes vulnérables, les niveaux de risque et la prise de risque. Elle doit permettre de dresser la liste des dangers afin de les recenser le plus exhaustivement possible. Des outils d’identification peuvent alors être utilisés : des audits, l’Analyse Préliminaire des risques, les analyses fonctionnelles, les Analyses des Modes de Défaillance, de leurs Effets (AMDE)..

      

      L’analyse préliminaire des risques (APR), permet d’identifier les risques (situations dangereuses et accidents potentiels) présentés par un système dès sa conception. Les résultats de cette identification sont décrits au moyen de divers modes de présentation : tableaux, arbres logiques ou document de synthèse.

      

      Les tableaux permettent d’ordonner des informations utiles en fonction de notions prédéfinies : fonction ou sous-système, modes d’utilisation du système susceptibles de générer un risque, éléments dangereux, événement causant une situation dangereuse, situation dangereuse, événement causant un accident potentiel, accident potentiel, conséquences, classification par gravité. Ce tableau doit, pour être pertinent, être rempli par un spécialiste possédant une bonne connaissance du système.

      

      Les arbres logiques décomposent l’enchaînement des circonstances qui conduisent à l’événement indésirable et ceci pour chaque sous-système étudié. Ils font mention de la gravité des conséquences en cas d’accident et ont comme intérêt de mieux montrer l’enchaînement des causalités.

      

      Les documents de synthèses tels que les fiches produits ou fiches procédés, utilisées dans l’industrie chimique, permettent à l’analyste de prendre en compte systématiquement et selon le contexte l’ensemble des données concernant les dangers identifiés.

      

      

      L’analyse des modes de défaillances et de leurs effets (AMDE) est un outil très utilisé en entreprise pour analyser les conséquences des défaillances qui peuvent affecter un équipement ou un système ou identifier les pannes ayant des conséquences importantes notamment sur la sécurité. Elle fait appel au raisonnement par induction et permet de représenter les différentes séquences d’événements susceptibles de conduire, à partir de causes identifiées au préalable, à un ou plusieurs effets préjudiciables au système.

      

      L’approche systémique des 5 M inspirée du diagramme cause - effet d’Ishikawa est un outil utilisé par la méthode HACCP (Hasard Analysis Critical Control Point) dans l’agro-alimentaire. Elle permet d’effectuer une analyse des dangers à chaque étape de fabrication ou de transformation d’une denrée alimentaire. Les 5 M représentent les cinq groupes de facteurs qui peuvent intervenir dans l’augmentation du risque d’insalubrité de la denrée.

       La Matière première est responsable de l’apport initial de micro-organismes voire également d’une contamination croisée par apports secondaires.

       Le Matériel peut-être source d’apport initial de micro-organismes lorsque sa nature, sa conception, son état d’entretien et la qualité de celui-ci permettent de ménager des zones de développement microbien.

       Le Milieu est représenté par les locaux, les aménagements, les équipements, les réseaux d’eau, d’air et de déchets. L’aérocontamination, le non respect de la marche en avant, la contamination de l’eau de rinçage sont autant de facteurs intervenant dans l’augmentation du risque.

       La Méthode employée peut favoriser les apports secondaires, mais aussi la prolifération des micro-organismes. Ainsi, le non respect de la chaîne du froid, ou une remise en température inférieure à 63°C sont autant de facteurs de risque.

       La Main d’oeuvre, c’est à dire toutes les personnes travaillant sur le site peuvent être vecteurs de micro-organismes commensaux ou pathogènes.

      

      Ce diagnostic est possible lorsque le processus général de cause à effet est démontré. Pour des risques globaux comme l’utilisation massive des produits phytosanitaires ou de certaines technologies comme les transports routiers, l’identification des effets négatifs est loin d’être parfaite. Ainsi pour les particules émises par les moteurs diesel, on est passé progressivement de la probabilité d’effets carcinogènes sur l’animal à la certitude de ces effets sur l’animal pour de fortes doses, puis à la possibilité d’effets sur l’homme aux doses subies dans l’environnement.

      

      

       Classification des dangers identifiés

      

       L’identification des catégories de dommages possibles suppose toujours un ordre de priorité. Même si l’on réduit les catégories de dommages au domaine de la santé et de l’environnement, il reste nécessaire de sélectionner parmi le grand nombre de dommages possibles ceux qui paraissent intolérables pour la société à une époque donnée. Cette sélection n’est donc pas universelle ni intemporelle. Ainsi, le dernier tiers du 20ème siècle a été marqué par la recherche en cancérologie (cette maladie est devenue une préoccupation réelle dès le début du 20ème siècle) : facteurs environnementaux agissant sur les oncogènes ou sur les gènes suppresseurs de tumeur, rapports dose-effet, prévention (notamment par l’alimentation), traitements. L’arrêt de la vaccination collective systématique des élèves de 6ème par le Secrétaire d’Etat à la Santé B. Kouchner suite à une campagne médiatique reprenant différentes études portant sur d’éventuels risques de développer une sclérose en plaques suite à une vaccination contre l’hépatite B, est un exemple illustrant le fait que dans l’avenir, il se peut que d’autres conséquences passent au premier plan des préoccupations. En effet, d’autres maladies dites émergentes liées à l’exploitation accrue de notre environnement et aux bouleversements des écosystèmes ou encore à l’évolution des pratiques quotidiennes et du mode de vie menacent l’homme : les maladies infectieuses causées par des bactéries multirésistantes, l’émergence de nouvelles maladies virales mais aussi les maladies neuro-dégénératives comme la maladie d’Alzheimer ou la sclérose en plaques.

      

      Après l’identification des dommages et leur classification par ordre de priorité, la démarche d’analyse des risques comporte une troisième étape, celle de l’évaluation des dimensions des dommages en fonction des probabilités de leur apparition.

      

      2ème étape : évaluation de l’exposition et de la relation dose-effet(s)

      

       Elle se base sur la recherche de la probabilité de survenue d’une incidence observable qu’il est alors possible de mesurer afin d’estimer le risque en question. Ce risque est alors qualifié de «risque observable» ou encore de risque réel par opposition au risque perçu (nous aborderons la perception du risque dans un autre paragraphe). L’évaluation s’appuie sur deux paramètres : l’occurrence (probabilité d’apparition) et la gravité des effets engendrés. Elle utilise la méthode statistique afin de quantifier le risque en multipliant la probabilité d’occurrence avec la gravité des dommages. On parle alors d’espérance mathématique. Cette quantification tente d’apporter des réponses aux questions suivantes :

      

       1 Quelle est la relation entre la dose toxique et l’incidence des effets pathologiques chez l’homme ?

      

       2 Quelles sont les expositions mesurées ou estimées dans différentes conditions ? (Distribution spatiale et temporelle)

      

       3 Existe-t-il des groupes à risques c’est à dire exposés de manière particulière à ce danger ?

      

       4 Quelle est l’estimation de l’incidence des effets défavorables dans une population donnée, notamment au sein des groupes à risques ?

      

      L’évaluation du risque se fait selon deux approches : une approche expérimentale ou une approche épidémiologique. L’approche expérimentale utilise des modèles (cellules, tissus ou animaux) en laboratoire et ensuite l’homme, par le biais d’une exposition humaine contrôlée sur des volontaires dans certaines conditions médicales et éthiques. L’approche épidémiologique quant à elle permet l’étude de populations. Ainsi, par exemple, les enquêtes d’incidence permettant d’étudier prospectivement tous les nouveaux cas d’infection, mesurent le risque d’acquisition d’infection d’un patient admis à l’hôpital et prennent en compte, dans la survenue de l’infection, les facteurs propres au patient et à la nature des soins prodigués. En effet, l’évaluation du risque infectieux en milieu hospitalier doit tenir compte de la présence de micro-organismes pathogènes dans l’environnement, de la possibilité de transmission directe ou indirecte de ces agents infectieux aux malades et de la fragilité immunitaire de ces derniers. Lorsqu’on étudie un facteur causal, il est alors intéressant d’évaluer la proportion des cas de dommages dus à ce facteur. S’agissant de maladie, il est possible de mesurer le rôle étiologique par trois types d’enquêtes :

       _ l’enquête sur échantillon représentatif de la population : estimation des risques de maladie chez les exposés et les non-exposés et de la fréquence de l’exposition. Cette enquête de cohorte est généralement prospective.

       _ l’enquête exposés - non-exposés est un cas particulier de l’enquête précédente où on a choisi les effectifs des groupes des individus exposés et non-exposés. Elle est utilisée notamment pour l’étude des maladies professionnelles. Au groupe des personnes exposées lors de leurs activités professionnelles, on compare un groupe témoin non-exposé.

       _ l’enquête cas-témoins est utilisée lorsque la maladie étudiée est rare. On constitue alors un groupe de sujets malades et un groupe de sujets non atteints de cette maladie. C’est une enquête rétrospective puisqu’on interroge les personnes sur leur exposition passée au risque.

      

      Quelle que soit l’approche choisie, il est nécessaire ensuite d’utiliser des outils mathématiques afin d’estimer le risque étudié.

      

       Des outils mathématiques pour évaluer les risques

      

       Selon O. Renn (1995,p78), trois méthodes peuvent être utilisées pour déterminer la probabilité d’un dommage :

       _ extrapolation dans l’avenir de valeurs d’expériences,

       _ modélisation de la probabilité et de l’étendue des dommages par des expériences (toxicologie) et par des relevés démoscopiques (épidémiologie),

       _ synthétisation des probabilités par combinaison systématique des probabilités de défaillance de chacun des composants.

      

      Dans le cas le plus simple, on prend la tendance statistique des années précédentes et on l’extrapole sur l’avenir. Mais dans de nombreux cas, les experts ne possèdent pas de valeurs anciennes où les phénomènes dangereux analysés sont multifactoriels, alors les probabilités doivent être modélisées ou synthétisées. « Dans la modélisation, les valeurs d’expériences provenant d’essais ou d’observations sont intégrées dans une fonction de probabilité théoriquement fondée; dans la synthétisation, les probabilités de défaillance de systèmes techniques complexes sont déterminées analytiquement par combinaison des probabilités de défaillance de chacun des composants de système.... Les arbres d’événements et d’erreurs sont deux procédés permettant de représenter les liaisons fonctionnelles et séquentielles entre chacune des composantes techniques. » Cette modélisation séquentielle depuis l’événement déclencheur jusqu’aux dommages finaux débouche alors sur la généralisation des effets sur la santé, la vie et l’environnement.

      

      L’analyse des modes de défaillance et de leurs effets (AMDE) précédemment décrite est également un outil d’évaluation des risques. Après avoir défini le système étudié (en le décomposant en éléments), identifié les modes de défaillance susceptibles de nuire au bon fonctionnement de l’installation, recherché les causes d’apparition des modes de défaillance, analysé les effets des défaillances ainsi que les possibilités de les compenser, le risque associé à chaque mode de défaillance est évalué. L’évaluation du risque s’effectue généralement à partir d’échelle de cotation de la gravité (par exemple niveau 1: négligeable, niveau 6: majeur) et de la probabilité (par exemple: niveau 1: extrêmement rare, niveau 2: très fréquent). Cette évaluation s’exprime alors au moyen d’un nombre de deux chiffres, par combinaison des niveaux de probabilité et de gravité préalablement définis (par exemple risque 12: gravité 1, probabilité 2). L’ensemble des résultats de l’analyse est ensuite reporté sur une « grille critique », construite en portant les gravités en abscisses et les probabilités en ordonnées.

      

      L’analyse par arbre d’événements permet de représenter l’ensemble des éventualités résultant de différentes combinaisons d’événements. Le développement de l’arbre s’effectue à partir d’un événement initiateur et progresse selon une logique binaire (ex: fonction assurée (1) ou fonction non assurée (0)).Chaque événement conduisant à identifier deux états successifs possibles, un nombre n d’événements pris en considération entraînera 2n chemins possibles et par conséquent autant d’éventualités finales encore appelées classes de conséquences. Ce procédé permet ainsi de mettre en évidence les conséquences indésirables possibles dans le cas où certaines fonctions ne sont pas assurées en tenant compte des combinaisons possibles entre ces événements. De plus, il se prête à l’analyse quantitative, à chaque événement peut être attribué une probabilité de défaillance et/ou de bon fonctionnement.

      

      L’analyse par arbre des défauts (ADD) permet de représenter sous la forme d’un diagramme logique, les combinaisons d’événements qui conduisent à la réalisation d’une sortie indésirable et définie a priori, ceci dans le cadre d’un système conçu pour assurer une mission déterminée. L’arbre est formé de différents niveaux tels que chaque événement soit généré à partir d’autres du niveau inférieur par divers opérateurs. Le processus déductif permet de développer l’arbre en partant de l’événement au sommet, ceci jusqu’à atteindre une série d’événements élémentaires. Ces derniers sont caractérisés par trois critères :

       _ ils sont indépendants entre eux (la probabilité de défaillance d’un événement élémentaire a ne doit pas inclure la probabilité de défaillance d’un événement élémentaire b),

       _ leurs probabilités d’occurrence peuvent être calculées ou estimées,

       _ les spécialistes concernés n’éprouvent pas le besoin de les décomposer en événements plus simples.

      La définition et le choix de l’événement indésirable à étudier est une étape essentielle à la pertinence et à la cohérence de l’ensemble de l’analyse par arbre des défauts. L’événement étudié peut être un événement potentiel connu, caractéristique du système et mis en évidence par l’expérience, notamment par l’analyse des incidents qui se sont produits sur le système étudié. Mais la connaissance de cet événement peut également être obtenue à l’issue d’une phase d’identification des dangers, en faisant appel à deux méthodes précédemment décrites : l’analyse prévisionnelle des risques ou l’analyse des modes de défaillances et de leurs effets. Une première estimation de ces dangers en fréquence et en gravité facilite le choix du ou des événements qui devront faire l’objet d’une analyse par arbre des défauts. La construction de l’arbre doit être menée par une équipe pluridisciplinnaire rassemblant un grand nombre de généralistes et de spécialistes d’origines diverses, chacun d’entre eux voyant les événements de sa compétence dispersés entre plusieurs points de l’arbre.

      

      L’exploitation quantitative nécessite de disposer de données probabilistes sur les événements. Généralement, c’est à partir des probabilités d’occurrence des événements primaires, estimés statistiquement d’après les exploitations passées que l’on calcule la probabilité d’occurrence des événements redoutés. Ainsi, l’analyse des risques a priori utilise les résultats de l’analyse a posteriori. La connaissance des densités de probabilités d’apparition de chaque événement de base permet de déterminer la probabilité d’apparition de l’événement de tête ainsi que les chemins les plus critiques, c’est à dire les plus probables parmi les combinaisons d’événements susceptibles d’entraîner l’événement de tête.

      

      L’évaluation du risque selon ces différentes méthodes d’analyse systématique des risques permet notamment la mise en évidence de la relation dose-effet et de l’exposition ainsi que le caractère de celui-ci même si nous devons garder à l’esprit que: «l’incertitude est véritablement un dénominateur commun à ces questions de santé environnementale. Car ces risques présentent des caractéristiques intrinsèques qui rendent parfois difficiles leur mise en évidence et leur quantification.» (Dab, in Apfelbaum, 1998, p151) Quelque soit la méthode choisie, la probabilité définie comporte toujours une part d’incertitude. En effet chacune des méthodes précédemment décrites échoue dès que la base de données est déficiente (la connaissance des différents facteurs de risque n’est pas exhaustive) et que les conditions environnantes ne sont pas constantes (un ou plusieurs facteurs de risque peuvent évoluer, voire disparaître). C’est ce qui fait dire à Daniel Schwartz Professeur émérite à la faculté de médecine de Paris-Sud, que « le risque est à un moment donné le fruit de l’ignorance et du hasard ». (mai 1998)

       De la difficulté d’évaluer le risque

       Pour beaucoup de produits chimiques ou dans une moindre mesure pour les micro-organismes, la quantité absorbée, tant par une exposition aiguë que par une exposition chronique, aura une influence sur les phénomènes physiologiques et ou pathologiques chez le consommateur. L’évaluation de la relation dose-effet(s) est un processus qui permet d’obtenir des informations quantitatives sur la probabilité d’apparition d’un dommage à la suite de l’exposition à un danger. Différentes situations compliquent cette évaluation : le cas des faibles doses et des expositions prolongées, celui des situations uniques ou événements rares et d’autres encore comme la multiplicité des facteurs.

      

      

       L’évaluation de la relation dose effet dépend du champ disciplinaire :

      en microbiologie : le concept de Dose Minimale Infectante est maintenant parfaitement

      admis. Celle-ci varie en fonction de la virulence de l’agent infectieux (bactérie, virus ou

      prion) et de son pouvoir toxique mais elle dépend également de la résistance de l’hôte à

      l’infection.

      en chimie, la situation est différente de par l’existence de deux catégories de produits :

       _ ceux dont l’effet est déterministe (non stochastique, connue chez l’homme ou l’animal),

      C’est à dire dont l’importance croît avec la dose et entraîne à un moment un état pathologique dont la gravité est fonction de la dose reçue et varie selon la sensibilité individuelle. La relation dose-réponse évolue en trois phases: absence de pathologie, croissance du nombre de cas en fonction de la dose, plateau lorsque tous les individus même les plus résistants sont atteints. L’étalement dans le temps des prises entraîne une diminution de l’effet. Il est possible de déterminer par des études sur des animaux, une dose sans effet nocif observé ou une dose minimale induisant un effet nocif observé (notion de seuil).

       _ ceux dont l’effet est probabiliste (stochastique, effet de type cancérogène).

      Pour lesquels la pathologie indirecte existe aussi chez les témoins non exposés et n’est donc pas fonction de la dose reçue. Il n’y a pas de relation dose-effet au niveau de l’individu, mais une relation dose-réponse au sein de la population exposée; l’incidence de la pathologie (cancer, leucémie..) croît en fonction de l’exposition. Les agents chimiques sont alors considérés comme des «facteurs de risque» et non pas comme des risques en soi. «L’exposition à l’un d’entre eux peut augmenter la probabilité de survenue d’un événement indésirable, mais ne représente pas tout le risque pour autant : les conditions d’exposition, les caractéristiques des populations qui y sont soumises, les facteurs individuels et toute une série d’événements intercurrents participent autant, et souvent plus, au «risque» que le facteur de risque lui-même. Cette approche permet d’éviter d’appeler «risque» la simple présence du facteur de risque; elle fait par exemple la distinction entre la présence de salmonelle dans le lait et la probabilité d’effets morbides pour ceux qui le boivent. Elle permet surtout de ne pas s’enfermer dans la dualité «risque-absence de risque» en reconnaissant que le risque est une grandeur que l’on peut éventuellement chiffrer plutôt qu’une propriété.» «Deux risques de nature quasi alimentaire ont joué un rôle important dans la fondation de l’épidémiologie : l’expérience de traitement du scorbut et surtout la découverte de l’origine de l’épidémie de choléra à Londres en 1857, basée sur un pur raisonnement statistique. John Snow découvrit que le taux de décès était dix fois plus élevé chez les Londoniens qui consommaient l’eau de la Tamise pompée près d’un égout que chez ceux qui buvaient l’eau tirée plus en amont : longtemps avant les travaux de Pasteur et des décades avant les antibiotiques, son raisonnement statistique lui permit de défaire la théorie prévalente de l’origine aérienne de l’épidémie et de la stopper, en fermant la pompe incriminée, sans la moindre idée de sa cause réelle ( le vibrion cholérique ne fut aperçu que bien plus tard). Baser l’action sur l’estimation du risque, sur une probabilité, plutôt que sur une preuve qualitative fit faire des pas de géant non seulement à la santé publique, mais également à la biologie, qui dès lors sut où rechercher le vibrion.»

      Par convention mathématique, on fixe à zéro ou à un la probabilité d’un événement passé, ainsi, en toute rigueur, le risque devrait également être fixé de la même façon en le quantifiant par un nombre réel de 0 à 1 inclusivement. L’excès de risque est déterminé à partir de données expérimentales ou épidémiologiques et correspond à l’accroissement de décès attendus dans une population pendant la vie entière pour une pathologie donnée, après une exposition. L’Organisation Mondiale de la santé préconise un excès de un pour 100 000 ; l’Union Européenne, et la France, retiennent généralement une valeur de un pour un million.

      La réalité de ces risques se heurte au problème général des faibles doses qui est en fait un problème de fiabilité des modèles. Une confusion courante consiste à considérer que le risque «réel» est entièrement représenté par le risque observable De plus, on confond par ailleurs le risque observable avec le risque mesurable. En effet si on considère qu’une mesure est l’application d’un étalon, celle-ci peut être objective mais aussi subjective, quantifiant un sentiment au niveau personnel. ( Abenhaim, Directeur du Centre d’épidémiologie clinique et de recherche en santé publique (Montréal), in Apfelbaumm, 1998, p234, 235)

      

       Le cas des faibles doses et des expositions prolongées

       Les faibles doses provoquent une toxicité chronique représentant l’essentiel des

      

      problèmes à gérer en santé environnementale. La définition d’une faible dose comporte toujours une comparaison avec ce qui est considéré comme une dose forte. Si on prend l’exemple des rayonnements ionisants, pour le radiothérapeute une faible dose est une dose qui n’est pas à l’origine de symptômes cliniques, elle atteint le Sievert; pour le radiobiologiste moléculaire une faible dose est une dose telle que la probabilité d’enregistrer deux impacts du rayonnement dans la cible qui l’intéresse est inférieure à 1%. Il en résulte des doses d’une centaine de Sieverts pour des cibles de diamètre n’atteignant que quelques milliardièmes de mètre, comme le filament d’ADN. Il est évident que ces doses sont de plusieurs ordres de grandeur supérieures aux doses considérées comme faibles dans l’environnement, par simple référence à la gamme de l’irradiation naturelle, c’est à dire celle du milliSievert. En conséquence toute évaluation du risque des faibles doses se réfère à un modèle d’extrapolation dans des conditions où aucune vérification ne pourra être faite, à l’exception du cas où un risque (éventuellement un bénéfice) calculé est tellement surévalué qu’il est contredit par l’observation épidémiologique directe. Cette situation laisse les préventeurs dans un état de perplexité qui n’est d’ailleurs pas limité à l’irradiation. C’est la problématique des faibles doses de tous les agents génotoxiques. « Dans le cas de l’amiante, épidémiologie et recherche biologique se rejoignent pour suggérer que le modèle le plus plausible est celui de la droite passant par l’origine, donc d’un excès de risque dès que la dose n’est pas nulle : comme le tabagisme et le cancer. » « Il est par ailleurs intéressant de signaler que, si le risque varie linéairement en fonction de la quantité consommée, il varie bien davantage en fonction de la durée du tabagisme : il varie comme celui-ci à la puissance 4,5. Ainsi, fumer 2 fois plus multiplie le risque par 2, mais fumer 2 fois plus longtemps le multiplie par 2 puissance 4,5, c’est à dire plus de 20. » ( Schwartz, mai 1998) Cette problématique regroupe les maladies survenant dans un délai long à la suite d’une exposition à un facteur de risque non établi. On peut citer : la patuline (mycotoxine) du jus de pomme et la dioxine dans le lait des vaches nourries à l’herbe contaminée par les effluents d’une usine d’incinération des ordures ménagères ou encore les nitrates concentrés dans les laitues.

      Les recherches d’évaluation des effets de faibles doses à des niveaux d’exposition prolongée comprennent des travaux sur l’animal et/ou sur l’homme en laboratoire, sur l’homme en condition normale (au repos, lors des trajets, sur son lieu de travail...) ou des enquêtes comparatives ( avant-après exposition...). En ce qui concerne les travaux sur l’animal, il s’agit « d’interroger la pertinence d’une extrapolation des effets observés chez des animaux soumis à de fortes doses pour estimer les effets des faibles doses sur les hommes. Ainsi, « dans une tasse

      

      de café, la quantité de composés naturels cancérogènes pour les rongeurs est à peu près égale en poids à la dose de résidus de pesticides synthétiques absorbée par un individu en un an. » Doit-on en tirer la conclusion que le café est dangereux pour la santé en terme de cancerogénécité ? (Ames, Swirsky Gold, octobre 1999, p50)

      

      

      

       Le cas des situations uniques ou des événements rares

      

      Pour estimer un risque, il est nécessaire de disposer d’une base statistique adéquate concernant l’incidence. «Il y a ici deux notions : la situation à risque doit s’être présentée plusieurs fois et le nombre de cas produits par la réalisation de ce risque doit être suffisamment élevé pour mesurer l’incidence avec précision.... Le besoin d’une base statistique exclut aussi la mesure du risque, tous les événements qui se produisent pour la première fois, comme les affections émergentes telles que la trentaine de nouveaux agents infectieux survenus depuis vingt-cinq ans dont certaines ont secoué sérieusement le monde alimentaire : le syndrome urémique et hémorragique de l’Escherichia coli 0157H7 et la nouvelle variante de la maladie de Creutzfeld-Jakob (nvMCJ) découverte en Grande-Bretagne en 1995. L’analyse de ces situations ne pouvait reposer au moment de leur déclaration, sur aucune base statistique.» (Abenhaim, in Apfelbaum, 1998, p237)

      

      De même pour appréhender des événements rares, type catastrophes, l’analyste est obligé de travailler avec des modèles de conséquences et des simulations sur ordinateur qui simulent soit un grand nombre de cas, soit des longues périodes. La validité et la fiabilité de tels modèles ainsi que les limites de leur interprétation doivent donc être constamment vérifiées. Que signifie par exemple une probabilité d’observer dans le domaine nucléaire un accident grave dont l’expression est de un dix millionième par réacteur et par an ? Nous éprouvons alors le besoin de nous représenter de façon imagée ce nombre très petit. Deux interprétations viennent à l’esprit : une en durée (un tel accident serait susceptible de se produire une fois tous les dix millions d’années), l’autre en quantité (il faut envisager un accident par an pour un parc nucléaire de dix millions de réacteurs en service) (exemple emprunté aux cahiers de notes documentaires n°139, 2e trimestre 1990, INRS, Paris, p383) Selon M. Favaro et M. Monteau (auteurs de ces cahiers), « aucune de ces deux interprétations n’est légitime...En réalité, la mesure de la probabilité d’occurrence d’un événement ne fournit aucune information concernant la distribution de celui-ci sur l’axe du temps. Sinon une information elle même de nature probabiliste, ce qui nécessite de faire des hypothèses sur le comportement du phénomène étudié (notions de densité et de loi de probabilités théoriques) et/ou de disposer d’informations empiriques. Un événement aléatoire, aussi improbable soit-il, peut parfaitement se produire dans la seconde, dans le millénaire ou jamais. » De la taille des échantillons étudiés dépend également la validité statistique. Plus l’affection étudiée est rare plus l’échantillon doit être grand.

       Autres difficultés

      

       Des échantillons de petite ou moyenne importance peuvent générer de fausses alarmes ou au contraire dissimuler des effets importants. Il est également important de prendre en compte l’état de santé de la population étudiée ainsi que sa surveillance médicale.L’homogénéité des causes d’une affection conditionne également les résultats statistiques. Or de nombreuses pathologies sont multifactorielles avec une intrication de facteurs endogènes et exogènes rendant spéculative toute tentative de mise en évidence d’une relation de causalité. De plus des synergies existent entre les diverses sources de nuisances et entre les polluants ( amiante et tabac, SO2 et particules...).

      

      «Confronté à des situations complexes où interviennent de nombreux facteurs, l’être humain a tendance à les simplifier. Notre esprit a une forte tendance naturelle à penser les relations de cause à effet de façon univoque. Appliqué à l’alimentation, ce phénomène se traduit par une tendance à classer les aliments en deux catégories, bons ou mauvais pour la santé.» D’autre part l’être humain perçoit souvent une corrélation là où il n’y a que des événements sans aucun lien entre eux. «Il a une mémoire sélective et mémorise les événements se produisant en même temps, établissant des liens entre eux sans exercer son esprit critique, par exemple sans chercher à regarder les cas où chacun de ces événements se produit de façon indépendante de l’autre.» (Rozin, in Apfelbaum, 1998, p138,140)

      

      3ème étape: la saisie des risques, conventions et fiabilité

       Selon O. Renn, (1995, p80) la saisie des risques est imprégnée de jugements de valeur

      

      collectifs, lesquels sont en règle générale fixés par des conventions scientifiques (donc pas n’importe comment). Reprenons l’exemple de l’analyse des risques par la méthode HACCP. Celle-ci permet en utilisant la méthode des 5 M par exemple, d’analyser les dangers alimentaires potentiels des opérations de confection et de conditionnement de denrées et d’évaluer leurs risques. Mais aussi, de mettre en évidence les lieux, les moments ou les étapes où les risques peuvent atteindre des niveaux inacceptables appelés : points à risques. C’est cette notion d’inacceptable qui doit faire l’objet d’un consensus afin de fixer le seuil au-delà duquel au niveau de chaque point critique, il sera nécessaire de définir et de mettre en oeuvre des opérations garantissant la salubrité des aliments afin de maîtriser les dangers potentiels. Des procédures de contrôle devront être rédigées afin de s’assurer de leur maîtrise. L’analyse des risques doit être menée par chacun des responsables d’établissements de restauration collective à caractère social comme l’exige l’arrêté du 29 septembre 1997 fixant les conditions d’hygiène applicables dans ces établissements. Chaque responsable effectue donc dans son établissement une évaluation des risques en se basant sur une méthode décrite par une documentation internationale de référence le Codex Alimentarius qu’il doit adapter pour déterminer les points à risques dans son établissement. « La nécessité de ces conventions lors de l’estimation des risques a provoqué dans l’opinion une confusion à propos de la fiabilité des analyses de risques. Or, la sélection de ce genre d’hypothèses n’est pas un acte arbitraire de la part du chercheur, par lequel il pourrait utiliser la marge d’estimation selon ses convictions politiques ou ses préférences personnelles. Au contraire, cette sélection est accessible a un jugement rationnel. » (Fritzsche, 1986, p.423, cité par Renn, 1995)

      

      L’analyse des risques, préalable à leur évaluation, de par les procédures et les méthodes qu’elle nécessite apparaît être du ressort des experts, même si elle est imprégnée de jugements de valeur collectifs. « Or, la séparation entre analyse de risque et évaluation de risque, telle qu’elle se pratique couramment dans la procédure scientifique, est moins marquée, sinon absente dans la perception quotidienne. La plupart des gens analysent et évaluent les risques dans la même foulée. Pour ce faire, ils se servent d’une série de critères de jugement de situation, comme par exemple le libre arbitre, la possibilité de maîtriser personnellement le risque, l’accoutumance à la source de risque et l’équité de l’exposition au risque. Selon que les individus classent le risque comme contrôlable, accepté spontanément, équitable en ce qui concerne les effets de répartition et exempt d’éventuelles conséquences catastrophiques, l’appréciation du potentiel de risque lié à une activité ou à un événement peut varier de manière considérable. » (Slovic,

      

      1987, cité par Renn, 1995, p 83) «Malgré l’emploi d’une analyse mathématique, l’évaluation quantitative du risque n’est pas une science exacte. C’est un art avec une part d’arbitraire procédant du «mythe du chiffre» selon lequel n’est connu de façon précise que ce qui peut être chiffré, même si ce chiffre est obtenu grâce à des hypothèses, souvent anciennes, fragiles, réfutables. » (Deoux, 1993, p501) L’utilisation du calcul des probabilités et de la statistique induit des résultats dont la certitude est exclue étant donné que dans ce domaine mathématique, le hasard intervient. « Mais des problèmes comme ceux de l’amiante, ou des rayons ionisants, souffrent d’une incertitude supplémentaire : le résultat ne peut être connu que sous certaines hypothèses, telles que le mode d’extrapolation vers l’origine, ou la possibilité d’interpréter causalement une enquête d’observation. » (Schwartz, mai 1998)

      

      «L’analyse technique de risque fournit une contribution à la prévision des conséquences négatives réelles de systèmes techniques ou sociaux, mettant ainsi à la disposition de la société des possibilités de gestion du risque par anticipation. Toutefois, la polarisation étroite sur les conséquences réelles et l’utilisation de fréquences relatives pour l’estimation des probabilités ne permettent de saisir les conséquences sociales d’une action et de décrire les incertitudes quant à ses conséquences que d’une manière limitée. Les analyses techniques sont des instruments nécessaires mais pas suffisants pour traiter les risques sur le plan social. La même chose vaut bien entendu pour les analyses sociologiques. » (Renn, 1995, p92)  

      « Les analyses sociologiques de risque élargissent le champ de l’analyse technique du risque. Elles fournissent des arguments et du savoir pour l’examen de la validité des analyses techniques de risque et pour l’extension de leur domaine d’application. » O. Renn définit les thèses sociologiques à l’aide de trois faits communs :

      _ elles considèrent les conséquences désirables et indésirables comme des modèles d’interprétation constitués par la société, c’est à dire qu’elles prennent les dommages aux valeurs et aux intérêts comme étalon de l’indésirabilité, postulant la pluralité des définitions du risque ;

      _ elles définissent les probabilités comme une certitude subjective, c’est à dire qu’elles reconnaissent l’expérience individuelle ou collective comme mesure pour fixer les valeurs attendues. Dans ce contexte, la prise en compte statistique des probabilités ne représente qu’une possibilité légitime parmi d’autres ;

      _ elles considèrent la pesée des bénéfices et des risques moins comme un acte établissant un décompte réciproque que comme un processus de formation de la volonté politique.

      Ainsi pour O. Renn, dans le cadre de l’analyse des risques, « les perspectives techniques et sociologiques du risque ne sont pas opposées l’une à l’autre, mais se complètent mutuellement. » ( 1995, p82)

      

      

      L’évaluation du risque est donc sa caractérisation par une valeur quantitative reposant sur l’estimation de celui-ci par une analyse technique mais comporte aussi des critères subjectifs, évolutifs au cours du temps en fonction de choix individuels et des choix de société. Mais cette caractérisation peut se faire également par une valeur qualitative : le risque est-il tolérable, acceptable ? Ainsi, lorsque le risque est évalué comme «faible», c’est généralement le cas pour le risque sanitaire de la plupart des agents extérieurs, cela permet de négliger les programmes de prévention et de le rendre acceptable car la balance coût de la protection / risque mineur penche en faveur de l’acceptation du risque.

      

      

      Le risque zéro ou la notion de risque acceptable

      

       Toute activité humaine comporte des risques et vouloir que le risque soit nul est généralement impossible à moins que l’homme renonce à toute activité potentiellement dangereuse. Ainsi dans les Alpes, afin de prévenir les avalanches, les experts élaborent des modèles, des scénarios prenant en compte les conditions les plus défavorables, mais ils s’accordent sur le fait qu’en de rares occasions, ces modèles seront dépassés par des événements exceptionnels. Si on tenait compte de ces événements exceptionnels alors on ne pourrait accorder aucun permis de construire dans cette région. Toutefois à l’heure actuelle, toute entreprise souhaitant assurer sa pérennité se doit de développer une procédure de maîtrise des risques même si elle se trouve dans un contexte où le risque zéro n’existe généralement pas. Le concept de sécurité sanitaire est largement employé, mais la limitation du risque peut-elle aboutir à un risque zéro ? Dans la majorité des circonstances, cela semble impossible à démontrer directement et il faut se résoudre à considérer le risque résiduel comme acceptable.

      

      On conçoit de manière générale la sécurité comme une situation réelle dans laquelle quelqu’un ou quelque chose n’est exposé à aucun danger, une situation sans aucun risque. L’approche sécuritaire envisage l’ensemble des circonstances, normales ou non, pouvant entraîner une situation dangereuse (pertes de vies humaines, blessures, destructions d’équipements...). Elle considère de très nombreuses combinaisons d’événements, dont chacune peu probable, échappe à une exploitation statistique simple. Elle prend en compte les facteurs humains (défaillances, erreurs...). La sécurité sanitaire est «la sécurité des personnes contre les risques de toute nature liés aux choix thérapeutiques, aux actes de prévention, de diagnostic et de soins, à l’usage des biens et produits de santé comme aux interventions et décisions des autorités sanitaires.» (Tabuteau, cité par Guilhemsans et Lalande, in Apfelbaum, 1998, p248) Elle inclut dans son champ, non seulement les activités précédemment citées, mais également les aliments et les milieux (air, eau) indispensables à la santé et à la vie. Elle «est parfois comprise comme la protection contre les risques mettant en compte l’intégrité physique ou mentale - et donc la santé - des personnes. Il s’agit là d’une erreur, qui conduit à assimiler sécurité sanitaire et sécurité des personnes.» (Guilhemsans, Lalande, in Apfelbaum; 1998, p248) Le progrès technique, dans les domaines de la médecine, de l’alimentation ou des produits de consommation, est vécu autant comme un bienfait que comme une menace dans un contexte de défiance, au moins implicite. La commission des Affaires sociales du Sénat a désigné une mission d’information consacrée à la veille et à la sécurité sanitaire considérant que cette dernière constituait une mission de l’état. Son travail a débouché sur la loi du 1er juillet 1998 relative au renforcement de la veille sanitaire et du contrôle de la sécurité des produits destinés à l’homme. Le risque zéro ne peut exister car l’incertitude est toujours présente. De plus la probabilité d’une erreur n’est jamais nulle et il est aussi nécessaire de tenir compte des conduites frauduleuses voire malveillantes. Le risque zéro n’existant pas, le risque résiduel doit être acceptable en terme de fréquence et de gravité. Selon Bernard Chevassus-au-Louis, directeur de recherches à l’INRA et président du Conseil d’Administration de l’Agence Française de Sécurité Sanitaire des Aliments, un niveau de risque zéro de contamination alimentaire n’a jamais existé et n’existera sans doute jamais. (août- septembre 1999) Ainsi le degré de risque acceptable doit être apprécié en fonction des produits :

       _ Pour les biens et les services médicaux : le risque ne peut être considéré dans l’absolu. Une fois le risque réduit au minimum par l’industriel, l’état doit pouvoir estimer le rapport entre le bénéfice attendu pour le malade et le risque résiduel encouru. C’est l’appréciation portée sur le rapport bénéfices-risques du produit qui doit fonder la décision d’autorisation de mise sur le marché ou son refus ;

       _ Pour d’autres produits «substituables» (aliments) ou non (eau, air), le risque zéro doit être recherché. L’attitude d’évitement prudent doit être une règle privilégiée de gestion des risques.

      L’Assemblée Mondiale pour la Santé, corps exécutif de l’Organisation Mondiale de la Santé, a traité pour la première fois lors de sa réunion annuelle de 2000, de la sécurité alimentaire. Les pays membres se sont accordés à reconnaître que la sécurité alimentaire est une des missions essentielles de la santé publique. La sécurité alimentaire est un droit pour les consommateurs et une obligation pour les producteurs et les industriels de l’agro-alimentaire. Chaque maillon de la filière agro-alimentaire a ainsi une obligation de résultat qui nécessite une évaluation transparente des risques. François Patriat, secrétaire d’état a déclaré lors de la journée de clôture des Etats généraux de l’alimentation le 13 décembre 2000 que « l’exigence de sécurité devait s’appliquer à tous les produits, quel que soit leur prix et qu’ils soient labellisés ou non » et a regretté « l’amalgame souvent pratiqué entre qualité et sécurité, qui est source de confusion. » (DGAL, janvier 2001) Ainsi par exemple la qualification « agriculture raisonnée » ne doit pas être un nouveau signe de qualité...  L’agriculture raisonnée concerne une façon de produire qui se veut respectueuse de l’environnement. Elle n’a rien à voir avec la valeur intrinsèque des produits, il ne s’agit pas d’un signe de qualité... Elle ne doit pas être non plus un argument de sécurité sanitaire. La sécurité est un dû qui n’a pas à être « raisonné ». » (Chesnais, mai 2001, p41)   

      

      « Concernant l’évaluation des risques, la question récurrente est celle de leur acceptabilité. Le vrai problème, ici, est moins le niveau de risque, que le processus décisionnel aboutissant au choix d’une option de gestion du risque.» (Dab, in Apfelbaum, 1998, p156) L’utilisation d’un modèle permettant de déterminer les niveaux de contamination acceptables apparaît alors être nécessaire. L’objectif fondamental d’une analyse des risques est l’atteinte d’un niveau de sécurité jugé satisfaisant. Il repose donc sur une comparaison entre un niveau de sécurité évalué et un niveau de sécurité normatif. Comme nous l’avons vu précédemment le risque est caractérisé par un couple « probabilité d’occurrence/gravité des conséquences»  appliqué à un événement redouté. Ainsi, il est possible de définir une courbe d’acceptabilité du risque en portant en abscisse la probabilité et en ordonnée la gravité. Cette courbe permet ainsi de distinguer 2 zones de risque : acceptable et non acceptable. Tout événement redouté peut ainsi être représenté à l’aide de ses coordonnées et positionné dans l’une ou l’autre zone de risque. La représentation formelle du risque qui fait habituellement référence veut qu’un événement assez fréquent et de gravité mineure soit rejeté (risque non accepté) au même titre qu’un événement très improbable mais aux conséquences désastreuses. La délimitation de la frontière entre les deux zones de risque résulte dans ce cadre également d’une décision à caractère politique. Deux méthodes d’évaluation sont plus généralement employées pour fonder la décision : l’évaluation à partir du coût de la vie humaine ou l’évaluation à partir d’une comparaison des différents risques déjà acceptés en distinguant les activités volontaires des activités involontaires. Les niveaux de probabilité et de gravité délimitent une frontière où les seuils de risques sont rarement représentés de façon continue. Les praticiens définissent plutôt des classes de gravité ( par exemple : mineure, significative, critique, catastrophique...) et des classes de probabilité (en nombre d’apparition par heure d’exposition aux risques générés par le système: 10-a/h) pour chaque niveau de risque. Ces différentes classes sont alors représentées sous la forme d’un tableau à double entrée: gravité / probabilité. Or dans le domaine alimentaire Lucien Abenhaim déplore l’absence de modèle permettant de «déterminer les niveaux de contamination acceptables par des agents chimiques (exemple des nitrates) ou même des niveaux d’additifs ou composants chimiques pour lesquels on ne dispose pas de données humaines concluantes (exemple de la saccharine ou de l’aspartame pour les édulcorants).» (Apfelbaum, 1998, p243)

      C’est la « criticité » du risque qui déterminera son acceptabilité. Celle-ci s’obtient par le produit O x G (Occurrence, Gravité). La probabilité acceptable doit être d’autant plus faible que la gravité sera importante. En fonction du champ d’études, des barèmes permettent de donner un sens pratique et mesurable à une « criticité » de manière à ce qu’elle soit représentative du risque.

      

      

      1.2.2. L’acceptation du risque

      

       L’acceptation du risque est un comportement défini par l’action d’accepter. Accepter a trois sens possibles dépendant du contexte dans lequel ce verbe est employé:

       _ un sens positif : recevoir, prendre volontiers, approuver, adhérer à...,

       _ un sens neutre : admettre,

       _ un sens négatif : se résigner à, subir, assumer, supporter.

      

      Un risque ne peut être accepté que s’il est perçu. « Lorsque des individus ou des groupes ont le sentiment que certaines actions sont dommageables pour leurs valeurs ou leurs intérêts, c’est à dire lorsqu’ils estiment que dans le futur ils seront victimes des conséquences négatives, ceci équivaut à un risque au sens de la sociologie. Objectivement, ces perceptions peuvent être justes ou fausses. Pour la plupart des sociologues, la question de l’objectivité ne doit même pas trouver de réponse, car ce qui est objectivement dangereux ou non est une question d’appréciation et cette appréciation se transmet sur un plan culturel.  Naturellement, la réalité objective et la perception ne sont pas indépendantes l’une de l’autre, mais la réalité objective ne dirige l’action que dans la mesure où elle se trouve fixe dans les perceptions des individus et des groupes sociaux. » ( Renn, 1995, p 82)

      D’autre part ce que nous appelons objectif n’est-il pas en réalité considéré comme tel à la suite d’un travail culturel de sélection du système social, et par conséquent, également soumis aux courants des intérêts et de valeurs sociaux ?

      

      

      La perception du risque

      

       La perception «consiste en l’octroi d’une signification aux données apportées par les sens, elle permet leur sémantisation», elle «permet également la construction de catégories.». (Chiva, in Apfelbaum, 1998, p126,127.) Ce processus de catégorisation est selon M. Chiva important selon un double point de vue :

      « _ D’une part, il permet la mise en place d’une pensée classificatoire. Cette construction, abstraite, de catégories, facilite largement l’adaptation de l’individu. Le fait de pouvoir identifier instantanément un objet nouveau et l’inclure dans une catégorie dont les caractéristiques sont déjà connues, permet une adaptation rapide par assimilation aux caractéristiques déjà connues.»

      «_ D’autre part, ce processus de catégorisation (très important durant l’enfance, et qui dure tout au long de notre vie) se fait à partir de critères qui s’éloignent de plus en plus des simples données sensorielles. Il prend en ligne de compte aussi bien des données symboliques que des normes culturelles.»

      M Chiva englobe d’autres modes de pensée intervenant dans le processus de construction de la perception sous le vocable «idéels». Concernant la perception de l’aliment les «idéels» basés sur des données objectives, scientifiques ou sur des croyances, regroupent ce que l’on pense à propos de l’aliment : ses vertus, qualités, défauts ou dangers. Ainsi, une proportion non négligeable d’individus (de 10 à 45% des sujets Américains sondés par Paul Rozin) croient que de petites quantités d’aliments à haute teneur calorique (comme le beurre ou l’huile) contiennent plus de calories que de grandes quantités d’aliments à faible teneur calorique. «Ces croyances conduisent de nombreux Américains à exclure de leur alimentation tout aliment riche en calories au lieu de le consommer en quantité modérée.» De même, « contrairement à l’idée répandue, 99,9 % des substances chimiques ingérées par l’être humain sont d’origine naturelle... Dans l’alimentation humaine, 99,99 % des pesticides absorbés (1,5 g par jour pour un américain) sont d’origine naturelle. Il s’agit de produits chimiques sécrétés par les plantes elles-mêmes pour se défendre contre les champignons, les insectes et autres prédateurs. (Ames, Swirsky Gold, octobre 1999, p49)

      Nous allons aborder la perception à travers deux exemples de « risque perçu », le risque de contagion et le risque technologique.

      

      

      

       Premier exemple : le risque de contagion

      

       Paul Rozin (Apfelbaum, 1998, p139 à 143) explique la répugnance pratiquement universelle à consommer de la nourriture déjà goûtée par une autre personne par l’influence de la pensée de l’être humain par la loi de contagion. Celle-ci tient que «ce qui a été en contact restera en contact». «Si deux entités entrent en contact, il y a transfert de propriétés de l’une à l’autre. Cet échange s’opère dans un temps très bref et devient définitif. Ainsi, si un cafard a été en contact avec ma purée de pommes de terre, même pour un moment seulement, j’aurai le sentiment que la purée de pommes de terre a été «cafardisée» à jamais. Au bout d’un an, si je sors la purée du congélateur, je ressentirai le même dégoût car j’aurai gardé le souvenir de la contamination de la purée.» Ce principe de contagion est totalement insensible à la notion de dose. Pour justifier ce comportement, les occidentaux instruits préfèrent invoquer la biologie que la psychologie. «Si vous demandez à quelqu’un pourquoi il ne veut pas consommer un jus de fruits ayant été en contact avec un cafard, il vous citera presque toujours le cafard comme un vecteur de maladie, rarement comme une agression en soi. Si vous répétez l’expérience avec un cafard stérilisé (absence de microbes garantie), les gens constatent à leur propre surprise que leur aversion n’a diminué que légèrement. Il semble donc que les Occidentaux instruits présument en général que ce qui a été transféré par contact avec un aliment est une substance toxique. Or, nos travaux de recherche suggèrent que, dans de nombreux cas, ce qui est transféré est plutôt d’essence spirituelle que matérielle; il semble souvent impossible d’en éliminer les effets par lavage ou cuisson.» Ainsi , dans les pays occidentaux, le concept de microbe est généralement associé à celui d’infection. Lorsque l’on décèle la présence d’un micro-organisme dans un aliment, on pense qu’il y a risque de toxi-infection alimentaire. Même si dans la plupart des cas plusieurs micro-organismes par grammes d’aliment seraient nécessaires à l’apparition d’une toxi-infection.

      

      Le mythe du naturel, comme le niveau de familiarité d’une technique vont influer sur la perception du risque. Ainsi, on sous-estime généralement les risques biologiques ou chimiques liés à la cuisine dite traditionnelle utilisant des produits du terroir plus « naturels », alors que l’absence de pasteurisation ou de conservateurs sont des facteurs de prolifération microbienne donc des facteurs de danger. La nature est souvent considérée plus menacée que menaçante. De même, un incident minime dû à une nouvelle technologie, provoquera plus d’émoi qu’un accident de transport car l’individu craint alors pour son avenir. (Travaux de Slovic, 1987, cités par Louisot, 1998)

      

      

       Deuxième exemple : les risques technologiques

      

       Les risques technologiques sont d’origine anthropique et regroupent les risques industriels et les risques liés à la production énergétique (centrales thermiques, centrales nucléaires, barrages..). « Depuis la seconde guerre mondiale, de nouvelles technologies sont apparues et furent à l’origine d’accidents à la fois inédits et traumatisants du fait de leur capacité de destruction importante et de l’inefficacité des moyens de lutte.... Facteur aggravant, ces technologies sont actuellement irremplaçables. » ( Neugnot, 1994) L’industrie est la source de risques la plus connue du public. Les effluents aqueux ou gazeux mis en circulation dans la biosphère de façon continue ou accidentelle contiennent d’innombrables composés minéraux et organiques pouvant être de toxicité élevée et parfois non dégradables. L’industrie chimique met au point des composés artificiels devenant indispensables sur le plan technologique et économique, qu’elle produit en quantités toujours plus importantes. C’est le cas des pesticides que nous aborderons ensuite mais aussi des P.C.B. plus connus en France sous le nom commercial de pyralènes. Ils ont été synthétisés la première fois en 1881 et sont fabriqués industriellement depuis 1930 par fixation d’atomes de chlore sur une molécule de biphényle dérivée du benzène. Les P.C.B. sont d’excellents isolants électriques, quasiment ininflammables, résistant très bien à l’oxydation, à l’action des acides et des bases et de plus ont un bon pouvoir adhésif et plastifiant. Ainsi ils ont été utilisés dans de nombreux domaines en tant que fluides : diélectrique (transformateurs), caloporteurs, hydrauliques mais aussi en tant qu’agents plastifiants et adhésifs (peintures, laques, colles, vernis...) ou d’additifs dans les formulations de pesticides et de bactéricides. Lorsqu’ils sont exposés à des températures de l’ordre de 350 à 800°C, les P.C.B. se décomposent pour donner des dioxines ou PolyChloroDibenzo-p-Dioxines (PCDD), structure plane et hexagonale (formée par combinaison d’atomes de carbone, d’hydrogène, d’oxygène et de chlore) dont la symétrie confère des propriétés très particulières. Ces molécules sont non volatiles, peu biodégradables, insolubles dans l’eau, extrêmement lipophiles et stables à des températures très élevées (il faut atteindre 850°C pour commencer à les détruire). En juillet 1976, dans la banlieue de Milan à Seveso, un réacteur chimique servant à la fabrication de trichlorophénol, un intermédiaire de la synthèse d’un herbicide qui n’est plus commercialisé aujourd’hui, explose. En quelques minutes, entre 0,5 et 3 kilos de dioxines sont vaporisés dans l’atmosphère soit l’équivalent de 4 à 5 années d’émissions de dioxines en France. Ce nuage toxique ne tarda pas à se déposer sur le sol, contaminant des centaines d’hectares de terrain. On détecta aux alentours de l’accident des concentrations de l’ordre de 29µg/m2, qui justifièrent l’évacuation de plus de 2000 personnes. Si plusieurs centaines d’animaux meurent dans les premiers jours, aucune mort humaine directe à court terme n’est à déplorer et les 200 cas de chloracné (maladie de peau provoquée par le contact des dioxines avec l’épiderme) sont les conséquences les plus spectaculaires. Dans le grand public la mauvaise réputation de la dioxine 2,3,7,8-TCDD dite de Seveso est faite. Cet accident venant s’ajouter à d’autres : Binghamton dans l’état de New-York et Reims dans les années 1980, attirèrent l’attention des différents gouvernements sur les dangers de pyralènes et de leurs dérivés. Dès le 30 juin 1986 les pyralènes ont été interdits dans les nouveaux appareils électriques puis globalement à la fin 1999. La suppression programmée des pyralènes a contraint les chimistes à trouver des produits de remplacement. Afin d’être sûr que les produits de remplacement soient performants, rentables et n’engendrent pas de nouveaux risques, on prévoit qu’il faudra environ 10 ans pour détruire tous les appareils existants et se mettre en conformité avec la loi.

      Concernant les risques technologiques liés à la production énergétique c’est certainement la catastrophe de Tchernobyl qui marquera l’histoire du nucléaire civil. Le 25 avril 1986, une brusque augmentation de la puissance du réacteur de la tranche 4 conduit à la destruction du combustible, de l’oxyde d’uranium qui mis en contact avec l’eau qui l’entoure provoque une explosion de vapeur. Cette explosion entraîne la rupture de toutes les tuyauteries et soulève la dalle de béton. Des fragments du réacteur portés à haute température sont projetés par les explosions sur les toits des bâtiments environnants, provoquant une trentaine d’incendies. Ceux-ci sont tous maîtrisés trois heures et demie plus tard, et c’est parmi les pompiers que se trouve la quasi-totalité des victimes de l’accident. Environ 30 personnes, personnel de la centrale ou pompiers, sont mortes dans les jours ou les semaines qui ont suivi l’accident. Il y a eu 200 blessés; plus de 100 000 personnes ont été évacuées d’une zone de 30 kilomètres autour de la centrale. En effet lors de l’explosion, une partie des produits radioactifs accumulés dans le réacteur est entraînée à plus de mille mètres d’altitude. Le nuage radioactif a ensuite survolé l’hémisphère Nord et provoqué des contaminations dans les autres pays. Six erreurs « humaines » graves ont été recensées afin de déterminer les causes de l’accident. Cependant un tel accident n’aurait pu avoir lieu s’il n’y avait eu des causes plus profondes touchant notamment à la conception de ce type de réacteur. Les réacteurs RBMK ( Réactore Bolchoe Molchnastie Kipiachie ou réacteur de grande puissance à eau bouillante) sont qualifiés d’instables car la variation de puissance de ces réacteurs n’est pas limitée, les systèmes de protection sont insuffisants et leur mise en place est trop lente (pleine efficacité en 20 secondes contre 1 seconde dans les réacteurs français) enfin, le confinement n’est que partiel autour du réacteur et il n’y a pas d’enceinte de confinement résistante entourant le coeur. L’accident de la centrale américaine de Three Mile Island (1979) avait déjà conduit la France à tirer certains enseignements, notamment sur l’importance du facteur humain, et sur la nécessité d’améliorer l’interface homme-machine. Les premières mesures ont abouti à la transformation des salles de commande. On a aussi cherché à améliorer les procédures de conduite en cas d’accident,de plus chaque équipe a été renforcée par un ingénieur sûreté-radioprotection présent en permanence sur le site. Mais le fond du problème est celui de l’avenir en France de l’industrie nucléaire. La France a opté pour le nucléaire qui lui assure aujourd’hui environ 75% de sa production électrique. Or le parc nucléaire français doit commencer à être remplacé à partir de 2007 à une date qui dépendra de la durée de vie des centrales qui sera admise par les autorités de sûreté. Remplacer par quoi ? Telle est la question qui devrait être posée aux citoyens français lors de larges débat démocratiques. Les énergies non conventionnelles (solaire, éolienne, biomasse) seront peut-être les énergies du long terme; mais elles ne sont pas considérées comme étant en mesure de prendre le relais avant 2020. Il ne paraît pas y avoir d’autre moyen pour sortir du nucléaire que de produire de l’électricité à partir de combustibles carbonés (gaz, pétrole, charbon). Or les négociations intergouvernementales sur l’effet de serre et les quotas d’émission de ces Gaz à Effet de Serre (GES), Rio en 1992, Kyoto en 1997 et Buenos Aires en 1998, ont amené les Etats à fixer des objectifs quantitatifs par référence arbitraire à l’année 1990. L’Union Européenne s’est engagée sur une réduction globale de 8% et la France pour une stabilité de ses émissions de gaz à effet de serre. Certains Etats veulent obtenir des permis négociables. En fonction de l’objectif quantitatif qui lui est assigné, chaque Etat volontaire pourrait échanger ses droits d’émission avec d’autres. Des positions de principe s’affrontent mêlant étroitement idéologie et intérêts politico-économiques ( pays développés et pays en voie de développement, Etats Unis et Europe, ONG écologistes et gouvernements libéraux...). « En acceptant un objectif quantitatif de stabilité tout en refusant la possibilité d’un large recours aux permis négociables, la France se priverait de facto de la possibilité de renoncer ne serait-ce que partiellement à la filière nucléaire. ». (Godard, nov. 1998) La combustion des énergies fossiles engendre des pollutions à l’échelle planétaire et continentale : gaz à effet de serre et pluies acides. De plus, le nécessaire transport du pétrole sur de très longues distances, des pays producteurs vers les pays importateurs, occasionne des pollutions locales : les marées noires. C’est la marée noire du 16 mars 1978 en Bretagne, causée par l’Amoco Cadiz qui fait généralement référence en France tout au moins. La plus récente est celle causée par le naufrage de l’Erika le 12 décembre 1999. Ces déversements accidentels très médiatisés et aux conséquences environnementales certaines, masquent néanmoins ceux, provenant des dégazages illégaux qu’effectuent les navires et qui représentent une quantité supérieure d’hydrocarbures rejetée dans le milieu naturel.

      

      La société est-elle plus dangereuse en ce début du XXI ème siècle qu’elle ne l’était auparavant ou la notion de risque est-elle plus présente dans la vie quotidienne, dans les médias ou encore dans le débat public ? Certains facteurs influencent la perception du risque : des facteurs propres à la personne: sexe, âge, culture, expérience... mais aussi les caractéristiques de la situation ou de l’événement: involontaire, incontrôlable, dont les dommages sont amples...

      

      

      

      

      Autres facteurs influençant la perception du risque

      

       Des différences de perception des risques dépendant du sexe peuvent être mises en évidence. Les femmes, d’une manière générale, se soucient plus de leur santé que les hommes; et manifestent souvent plus d’inquiétude que les hommes concernant les risques environnementaux et principalement la sécurité sanitaire. De même, notre perception des risques est de plus en plus celle d’urbains ou de néoruraux et non plus celle de ruraux habitués aux aléas du climat et à la survenue de « catastrophes ». « La perception du risque par le grand public est fortement influencée par les situations de type «catastrophe» et par le sentiment d’être le jeu de forces invisibles et incontrôlables. Les voyages en avion, qui peuvent se terminer en catastrophe et où le passager ne peut exercer le moindre contrôle, sont perçus comme plus dangereux qu’ils ne le sont en réalité par rapport au ski ou à la conduite automobile. » (Rozin, in Apfelbaum, 1998, p141) En effet lorsque la mise en oeuvre, le fonctionnement et la procédure d’urgence d’une activité nous semblent difficiles à contrôler et indépendants de notre volonté, nous avons tendance à la considérer comme activité à risque. De même des événements tels que les épidémies ou tremblements de terre font l’objet d’une perception aggravée car dans ce cas, une aire géographique importante ou un nombre élevé de personnes sont concernés. La perception d’un événement dépend de son caractère plus ou moins spectaculaire et du nombre de sujets exposés. Ainsi voit-on parfois le public réclamer des actions considérables pour des risques minimes en ignorant complètement d’autres risques plus graves. D’autres études, notamment celle réalisée en 1986 par l’Institut de Protection et de Sûreté Nucléaire et poursuivie en 1989, afin d’étudier la perception des risques par nos concitoyens, ont été réalisées et aboutissent aux mêmes conclusions : une activité est jugée peu risquée si elle est volontaire, familière, contrôlable, mémorisable, peu redoutée, chronique, diffuse dans l’espace et dans le temps, non fatale, naturelle, détectable et juste. La mise en jeu de ces facteurs de perception rend inopérante toute action visant à comparer des situations à risques entre-elles. Toute comparaison même statistiquement valable ne sera pas signifiante pour l’individu si les facteurs de perception ne sont pas de même nature.

      

      De nombreux travaux de sciences sociales permettent d’éclairer le paradoxe existant entre l’importance de l’émoi dans la population et l’ampleur du risque à son origine. William Dab (Apfelbaum, 1998, p151) explique que : «ce qui fait peur est en réalité, moins l’ampleur du risque que l’incertitude sur l’existence d’un risque, dans le contexte d’une exposition invisible et indécelable par tout un chacun.» Dans sa grande majorité, le public n’admet pas l’incertain.

      

      

      

       L’incertitude un facteur de peur

      

       Les études mettant en évidence des risques de tumeurs liés à l’utilisation excessive des téléphones mobiles se multiplient. Actuellement les fabricants et les opérateurs font la sourde oreille. Les scientifiques publient sans succés et le consommateur ne sait pas à quelle vérité se vouer. Ces appareils émettent des rayonnements électromagnétiques d’amplitudes importantes et il n’est pas exclu qu’ils aient des effets sur la santé, sur des dispositifs médicaux comme les stimulateurs cardiaques ainsi que sur des systèmes électroniques qui pilotent les équipements industriels. Malgré de nombreuses enquêtes épidémiologiques, rien ne permet encore de corroborer le risque d’effets biologiques sur la tête et sur la main des utilisateurs. Le centre International de Recherche sur le Cancer a lancé l’été 2000 une étude de type « cas-témoins » dans 14 pays. Fin 2003, début 2004 cette enquête focalisée sur les cancers des organes directement exposés aux radiations des téléphones mobiles permettra de répondre à la question : « le mobile est-il un facteur de risque ? » (Guillemot, juillet 2000) C’est à dire que le CIRC fournira une donnée statistique et non pas la démonstration d’un lien de causalité. Le consommateur éprouve des difficultés à se contenter de données statistiques et l’incertitude scientifique génère alors chez lui un doute qui sera traduit en différentes attitudes : l’angoisse, la colère ou la désinvolture. Ainsi la vaccination est un acte de prévention qui symbolise le progrès de la médecine. Peu de français y sont profondément opposés. Elle connaît pourtant aujourd’hui une remise en cause. Plusieurs facteurs y contribuent. D’une part la coexistence d’une perception des épidémies comme très improbables car la maladie a pratiquement disparue ou ne sévit que dans certaines zones tropicales ou encore seule une population marginale y est sujette. Et d’autre part une focalisation exacerbée sur les risques éventuels liés à la vaccination (la vaccination contre l’hépatite B est-elle un facteur de risque de la Sclérose En Plaques ?).

      

      L’acceptation du risque perçu par un acteur humain dépend de plusieurs facteurs tels que sa perception du risque, le domaine concerné par le risque, la nature et le niveau de ses responsabilités, sa sensibilité affective, son analyse de la balance risques/bénéfices, son degré de conviction, sa maîtrise du raisonnement probabiliste et plus globalement de sa culture scientifique.

      

      

      Différents facteurs influençant l’acceptation du risque perçu

      

       L’acceptation du risque dépend de la sphère de référence : domaine du quotidien et de la prise individuelle de risque, domaine des risques liés au développement technologique accompagnant la croissance et enfin domaine des technologies nouvelles impliquant une intervention humaine sur l’ordre naturel. En effet qualifier une catastrophe de naturelle la fait entrer dans l’ordre des choses et ainsi la rend acceptable même si comme nous l’avons vu précédemment la gravité des conséquences de ces catastrophes naturelles est souvent liée à l’action de l’homme.

      

      

      

       Différents domaines de référence

      

       Dans le domaine du quotidien et de l’individuel : les risques pris volontairement sont largement acceptés. Le tabac et les sports dangereux en sont des exemples flagrants. Ils provoquent 99 % des dommages mais nous avons appris à cohabiter avec eux. De plus ils ne déclenchent pas de terreur fondamentale menaçant au pire notre avenir, voire celui de nos proches (tabagisme passif, excès de vitesse au volant..) mais pas celui de l’humanité. Par contre le risque créé par d’autres individus pourra être rejeté pour de multiples raisons

      

      Dans le domaine des risques dus aux technologies traditionnelles : les risques engendrés par ces technologies sont connus et acceptés plus ou moins conventionnellement. Certains sont volontaires mais quasi obligatoires (usage de l’automobile, voyage en avion...) d’autres sont imposés par la société comme habiter près d’un aéroport. L’opinion publique occidentale s’accorde mal en cette fin de siècle des conséquences liées à l’accroissement exponentiel des produits technologiques. Tout augmente inexorablement : la vitesse (le T.G.V.), le trafic (aérien), le parc automobile, la consommation de carburant, le volume (des déchets ménagers), la toxicité (des produits chimiques)... Conséquence : la probabilité de survenue d’un danger ainsi que sa gravité sont plus difficiles à évaluer, même si les effets restent limités dans le temps.

      Dans le domaine des technologies nouvelles : les OGM ou les techniques de clonage, s’inscrivent dans les technologies du vivant ou biotechnologies. Elles suscitent de manière générale une controverse vaste et profonde du fait d’une part de leur grande complexité qui les rendent incompréhensibles pour les profanes et d’autre part de la médiatisation (surmédiatisation ?) des éventuels effets néfastes, irréversibles et imprévisibles qu’elles pourraient engendrer sur l’ensemble de la planète et sur l’espèce humaine. La prise de décision concernant l’acceptation du risque semble dans ce domaine n’être pas du ressort individuel mais dépendre des experts car ces décisions à prendre sont en partie irréversibles avec des conséquences à très long terme. Cette situation nouvelle, propre à notre époque rend nécessaire la création de procédures et de règles de décision en terme d’acceptation de risques reconnus par tous. Elle induit également un large débat à propos des valeurs collectives fondamentales susceptibles de consensus afin de définir ce qui est socialement acceptable.. Chaque acteur (au sens où l’on considère l’acceptation du risque comme une action) va définir sa propre acceptabilité : l’acceptabilité technique d’un risque quantifié, l’acceptabilité économique des gestionnaires qui mettent en balance coûts de la sécurité et bénéfices attendus et enfin l’acceptabilité du public.

      

      

       Nature et niveau de responsabilité de l’acteur

      

       Prenons l’exemple d’une intoxication alimentaire : le producteur fera valoir le peu de cas répertoriés pendant une période donnée et qualifiera de panique irrationnelle l’information, les personnels de santé s’appuieront sur des données épidémiologiques (morbidité, mortalité) et le consommateur éventuel exprimera peur, dégoût conduisant à un rejet de consommer l’aliment. De plus, certaines conséquences peuvent être considérées comme utiles pour une catégorie de personnes alors qu’un autre groupe les considérera comme nuisibles. Ainsi les retombées d’aérosols d’azote lors de pluies acides sont une forme d’apport nutritif pour les cultures agricoles mais aussi un facteur de dystrophisation des plans d’eau. Schématiquement, il est possible de distinguer trois catégories de personnes directement impliquées dans le processus d’acceptation du risque : les producteurs, les bénéficiaires et les victimes potentielles. Ces trois catégories peuvent être suppléées par d’autres comme le gouvernement, les experts scientifiques et les média.

      D’autres facteurs interviennent dans l’acceptation du risque qui n’est pas toujours une décision cartésienne. Le dégoût tout comme l’indignation sont des sentiments moteurs dans le processus d’acceptation du risque. D’autre part, l’individu soumis à cette décision ne possède pas toujours les connaissances requises pour être capable de se forger sa propre opinion, librement, sans influence médiatique, ni les outils du raisonnement probabiliste qui lui permettrait d’analyser avec discernement les deux plateaux de la balance : risques et bénéfices.

      

      

       Le rôle de l’affect

      

       Le consommateur refuse les aliments contenant des organismes génétiquement modifiés, non pas (seulement) parce qu’il craint pour sa santé, mais parce que cela lui déplaît qu’on manipule des aliments. Ce comportement se rapproche plus de l’indignation que de la perception du risque. Les consommateurs ne supportent pas que certains producteurs ne respectent pas la loi, n’aient aucun sens des responsabilités et semblent insensibles aux conséquences que peuvent avoir leurs process sur la santé des consommateurs. De même un consommateur pourra se montrer exigeant sur la qualité microbiologique de son hamburger, mais ne se lavera pas les mains avant de le consommer sans couvert au fast-food.

      

      

       L’analyse de la balance : risques / bénéfices

      

       «Dans de nombreuses situations, l’être humain accorde plus d’importance à éviter une perte fixe qu’à rechercher un gain équivalent. Dans une situation où risques et avantages s’équilibrent, on a tendance à surévaluer les risques et à prévoir une perte nette.» Selon Paul Rozin (Apfelbaum, 1998, p141) l’aversion aux pertes explique que nous sommes prêts à payer davantage pour éviter l’augmentation d’un risque que pour réduire dans les mêmes proportions un risque que nous subissons déjà (ce qui serait un gain). «Si les pesticides qu’ils utilisent ( les producteurs agro-alimentaires) introduisent un risque cancérigène dans notre alimentation, ce risque est bien plus faible que celui qu’ils préviennent en combattant les parasites de nos végétaux. Mais personne ne semble y attacher la moindre importance.» « Aujourd’hui, grâce au zèle des négociateurs de la liberté du commerce, on demande deux choses aux scientifiques responsables des réglementations des deux côtés de l’Atlantique: d’une part, déterminer le risque associé à la consommation de tel ou tel produit alimentaire et d ’autre part, nous dire si le risque vaut la peine d’être pris. (Busch, février 2001, p23) Selon M Chiva (Apfelbaum, 1998, p127,128) l’acceptation d’un risque dépend de la prise en considération de la probabilité d’occurrences de conséquences négatives. «En effet, une conséquence grave, mais peu probable peut, d’un point de vue scientifique, être acceptable. C’est le propre même de l’utilisation des médicaments et, plus généralement, de toute thérapie : toute prescription prend en compte simultanément, avant d’être proposée, les bénéfices escomptés en regard des effets secondaires indésirables. Les deux paramètres ne peuvent être dissociés lorsque l’on parle de

      « prise de risque», quelle qu’elle soit. Or, les populations de consommateurs n’ont pas l’habitude de prendre en considération les deux éléments à la fois, le plus souvent l’attention est attirée par le danger potentiel, sans tenir compte de son occurrence possible.»

      

      

      

       Le degré de conviction

      

       La prise en compte de la confiance que peut accorder un sujet à une proposition incertaine va influencer celui-ci dans sa prise de décision à l’égard d’une certaine situation. Une même situation, un même événement suscitera des degrés de conviction différents d’un individu à l’autre. La suspicion d’un lien de cause à effet entre la vaccination contre l’hépatite B et le déclenchement possible d’une sclérose en plaques provoquera chez un individu le refus de se vacciner alors qu’un autre identiquement informé demandera à bénéficier de la couverture vaccinale.

      

      

       L’absence de formation au raisonnement probabiliste

      

       Le citoyen x n’est généralement pas formé à la mise en balance coût/bénéfice, pas plus qu’aux raisonnements probabilistes et à la causalité multifactorielle De plus lorsque «nous sommes placés devant un choix impliquant un risque potentiel, nos décisions sont généralement influencées par la mémoire que nous avons d’expériences et d’informations antérieures. En règle générale, nous avons un souvenir plus précis des événements concrets et vivants que de chiffres statistiques.» (Rozin, in Apfelbaum, 1998, p138)

      «D’une manière générale, nous nous laissons davantage impressionner par des événements tangibles que par des données statistiques. Ainsi, il suffit d’un seul gros fumeur de notre connaissance arrive à l’âge de quatre-vingt quinze ans pour que nos opinions sur la nocivité du tabac soient influencées par cet exemple de façon tout à fait disproportionnée. La capacité de mémorisation est probablement plus grande quand il s’agit d’exemples concrets dont on a soi-même été témoin.» (Rozin, in Apfelbaum,1998, p140) «Notre tendance à accorder plus d’importance aux événements corrélés qu’aux événements isolés et aléatoires nous conduit à ignorer les milliards de cas où la viande est consommée sans qu’il y ait manifestation de la maladie. Notre mode de pensée en tout ou rien nous amène à classer la viande bovine (ou la viande de boeuf britannique) dans la catégorie des produits dangereux et nos fausses idées sur la science nous amènent à penser que le lien entre prion, vache et consommation de viande est systématique et toujours mortel; Pas étonnant que le tollé soit si grand !» (Rozin, in Apfelbaum, 1998, p147) De plus, les consommateurs sont souvent victimes d’une acculture scientifique, peu formés à la maîtrise du raisonnement probabiliste, peu entraînés à la résolution de problèmes complexes nécessitant des concepts acquis dans différentes disciplines et ont une image très simpliste de la recherche scientifique.

      

      

      

      

      L’acceptation du risque est ainsi, le résultat d’un processus dynamique, multidimensionnel d’évaluation, de prise de décision et de contrôle. Ainsi, « la disparité que l’on peut observer entre les résultats des estimations techniques des risques par les experts et ceux des appréciations individuelles et collectives de ces mêmes risques par la population n’est pas due à la méconnaissance des valeurs statistiquement attendues des dommages ou à de quelconques cheminements irrationnels de la pensée. Cette disparité est plutôt l’expression d’une grille d’évaluation multidimensionnelle, dans laquelle les valeurs attendues ne constituent qu’un facteur parmi d’autres. » (Renn, 1995, p 83) L’acceptabilité sociale du risque intègre les divers aspects précédemment présentés. Elle dépend donc de nombreux facteurs rationnels, émotionnels, socioculturels mais aussi de valeurs éthiques et de codes moraux. Les situations de risque nul n’existant pas, les responsables doivent les gérer de manière à ce que le risque résiduel soit socialement acceptable. Gérer les risques, c’est mettre en place une organisation permettant de les identifier et de les évaluer afin de les traiter en permanence par des mesures de prévention (action sur l’occurrence) et par des mesures de protection (action sur la gravité). C’est pouvoir prouver que tout a été mis en oeuvre pour réduire la fréquence et la gravité des dangers compromettant la santé. Mais gérer les risques, c’est aussi anticiper sur des situations génératrices de perturbations et de conflits. C’est un processus d’appréciation et de pondération des différentes actions possibles et de sélection de l’option la plus appropriée. Les décisions à prendre nécessitent des choix qui peuvent être d’ordre politique, social, scientifique ou économique. Pour les établir, les différents organes décisionnels, font appel à des spécialistes de ces disciplines : des experts. La prise de décision peut être individuelle (prendre la décision de s’arrêter de fumer) ou collective ( la loi Evin de 1991 réglemente l’usage du tabac dans les lieux publics). La décision peut être de limiter le risque ( le principe ALARA (As Low As Reasonably Achievable : atteindre le risque raisonnable le plus bas), utilisé en radioprotection, d’équilibrer les risques par les bénéfices (pour gérer les risques collectifs il faut mettre dans la balance, risques collectifs et l’ensemble des bénéfices individuels), de comparer les options en vue d’une optimisation ou encore de le supprimer. Selon le rapport final de la Commission d’orientation du plan national santé-environnement (12 février 2004. p 104.), l’environnement de travail « devrait constituer un modèle de résolution des problèmes de santé environnementale. Il est en effet, étudié plus complètement et depuis plus longtemps et concentre le plus grand nombre de facteurs, pouvant ainsi fournir des éléments de compréhension face aux risques d’expositions plus diffuses caractéristiques d’autres milieux environnementaux. »

      

      

      

      

      


1.3. Gestion du risque, un modèle dont il faut s’inspirer : la gestion des risques professionnels

      

      

       C’est dans le domaine professionnel, avec le développement de la société industrielle que la préoccupation pour la sécurité est parvenue à un niveau d’exigence très élevé. La demande sécuritaire a gagné cette fin de siècle, dans les pays industriels, l’ensemble des dispositifs techniques et institutionnels : il est impératif de prévenir les maladies, l’insécurité, la misère, les accidents... Paradoxalement la prise de risque individuelle ne semble guère avoir reculé. L’activité industrielle, au travers notamment des moyens matériels et des procédés qu’elle met en oeuvre, génère des risques nombreux et variés pour les individus (risques d’accident du travail ou de maladie professionnelle), mais également pour les biens et l’environnement (risques de détérioration ou de destruction, pollution). La législation en matière d’hygiène et de sécurité du travail s’est développée à partir du 19e siècle pour répondre à deux besoins différents : protéger les travailleurs contre les risques auxquels ils sont exposés et réparer les conséquences des accidents survenus. Si toutes les personnes peuvent être considérées comme victimes potentielles, chacun doit néanmoins prendre conscience de sa responsabilité individuelle à l’égard de lui-même mais également à l’égard de l’ensemble de l’entreprise et de son environnement. D’autre part, il semble indispensable de s’interroger sur le sens que l’on accorde au concept de prévention. En effet, si prévenir c’est éviter ou retarder le risque, alors « la prévention est l’ensemble des actions qui visent à empêcher la maladie de se déclarer (prévention primaire), à en minimiser la gravité (prévention secondaire), à empécher qu’elle n’ait des conséquences durables (prévention tertiaire). La prévention ne se définit ainsi qu’à partir d’un savoir centré sur la maladie. Mais si prévenir c’est aussi apprendre à se confronter au risque en limitant les dangers encourus tout en permettant des expérimentations nouvelles (inhérentes à l’adolescence, signes de passage à l’âge adulte) alors la prévention « devient l’ensemble des actions qui facilitent ce cheminement ou réduisent les obstacles qu’il rencontre: assurer l’intégrité de la personne, accroître les capacités de résoudre les contradictions créées par l’environnement ou maintenir celles-ci à un niveau maîtrisable.» A ces deux conceptions de la prévention correspondent deux conceptions de la santé qui révèlent «la conception des relations sociales » au sein de la société. Le débat sur la prévention - et, donc, sur la conception de la santé - est au coeur même des débats sur la société, surtout si l’on s’intéresse au travail. » (Cassou, 1985, p595)

      Gérer les risques professionnels afin de les maîtriser nécessite la mise en place d’un système social de réparation des conséquences des accidents du travail et de protection des travailleurs, à même d’aider les chefs d’entreprise à informer et former leurs salariés à la sécurité et de les responsabiliser dans leur obligation d’évaluation des risques. Mais la gestion des risques professionnels nécessite également l’implication du système scolaire, chaque titulaire d’un diplôme professionnel devant avoir bénéficié d’un Enseignement de la Prévention des Risques Professionnels (EPRP).

      

      

       1.3.1.Réparer les conséquences des accidents du travail

      

       Dans la première partie du 19e siècle, le développement industriel, lié à l’apparition des fabriques, impose au législateur d’intervenir pour édicter des mesures de protection de la santé et de la sécurité des ouvriers. La législation du travail s’est développée à partir de juin 1893, plus précisément à partir de la loi du 12 juin 1893 étendant le champ de la protection à l’ensemble des établissements industriels et à toutes les catégories de salariés. Jusqu’à la fin du 19e siècle, c’est le régime de droit commun qui régit les rapports entre les employeurs et les salariés en matière de réparation des accidents du travail. Ce qui signifie que le salarié a obligation de prouver la faute de son employeur et la liaison entre cette faute et le dommage pour obtenir réparation. Ceci par application du principe de responsabilité prévu dans le code civil. C’est la loi du 9 avril 1898 qui, en introduisant la notion de risque professionnel, rendra systématiquement l’employeur responsable civilement des accidents survenus dans son entreprise. Ni le recours à des services spécialisés, ni les obligations des travailleurs dans le cadre des instructions qui leur sont données ne peuvent avoir pour conséquence de décharger l’employeur de sa responsabilité. L’indemnisation devient alors forfaitaire et couvre seulement une partie du préjudice subi. Ces dispositions sont étendues en 1919 à certaines maladies professionnelles. Cette loi conduit les chefs d’entreprise à s’assurer auprès de compagnies privées. Un régime de sécurité sociale est mis en place en 1945, son but est de garantir les travailleurs et leurs familles contre les risques de toute nature susceptibles de réduire ou de supprimer leur capacité de travail. La gestion du risque accident du travail est transféré aux caisses de Sécurité sociale par la loi du 30 octobre 1946 (abrogeant la loi du 09 avril 1898). Le nouveau système laisse à la charge des employeurs le financement de l’assurance accident du travail en instaurant un système de tarification qui fait varier le taux de cotisation selon le nombre et la gravité des accidents ou selon leur coût.

      

      

      

      

      

       1.3.2.Protéger les travailleurs contre les risques professionnels

      

       L’intervention de la sécurité sociale dans le champ de la prévention des risques professionnels découle de cette loi de 1946. S’agissant de sinistres frappant des hommes et des femmes, l’assureur qui est dans ce cas la Sécurité Sociale a pour vocation de mettre tout en oeuvre pour éviter les accidents du travail et les maladies professionnelles, ou, tout au moins en réduire la gravité, le coût du risque devant rester compatible avec la nécessité de produire.. D’autre part les services médicaux du travail sont rendus obligatoires cette même année et les comités d’hygiène et de sécurité sont créés en 1947 dans le but d’associer les salariés à l’effort de prévention dans l’entreprise. La prévention est considérée comme la voie principale pour améliorer les conditions de sécurité au travail et préserver la santé des hommes dans l’entreprise. Sous l’angle du droit du travail, la prévention regroupe l’ensemble des mesures ayant pour objet de diminuer les risques d’accidents: politiques, réglementaires, organisationnelles, techniques d’information, de recherche, financieres et économiques. Si les premiers règlements prévoyaient des mesures applicables aux personnes (notamment aux enfants), la priorité a très vite été donnée à la protection collective sur la protection individuelle. En cinquante ans les caractéristiques du travail en usine se sont considérablement modifiées. L’automatisation crée une distance entre le moyen technique de transformation et le travailleur. Les gestes d’exécution ont tendance à diminuer. Le travail de production est un travail plus abstrait, plus intellectuel. Le développement de nouvelles organisations de production entraîne des contraintes de temps dans l’organisation du travail qui peuvent être sources potentielles de stress. C’est pourquoi à partir des années 1960-70, les revendications des salariés intègrent de plus en plus les problèmes liés aux conditions du travail. L’Agence Nationale pour l’Amélioration des Conditions de Travail sera créée par la loi sur l’amélioration des conditions de travail en 1973. La loi du 6 décembre 1976 sur la sécurité du travail concrétise les résultats des travaux, réflexions et revendications sur la nécessaire prise en compte de la sécurité dans la mise en place de l’organisation du travail ainsi que dès la conception des locaux et des machines : c’est la notion de sécurité intégrée déjà en germe dans les premiers règlements. L’essentiel de l’effort de prévention devant consister à placer le travailleur lui-même dans des conditions telles qu’il soit effectivement en sécurité, c’est à dire soustrait aux situations dangereuses, il est apparu très vite que les procédés de protection ajoutée devaient, dans la mesure du possible, être remplacés par des mesures techniques portant sur les procédés de travail, la conception de l’outillage ou de la machine, le choix des matériels et des produits. En matière de protection contre les nuisances physiques ou chimiques, la réglementation française, depuis l’origine fixait aux employeurs des obligations de résultats (nécessité de garantir la sécurité des travailleurs dans la loi de 1893), sans donner d’indications sur les moyens techniques à mettre en oeuvre pour y parvenir, ni fixer les seuils à ne pas dépasser. La notion de « valeur limite d’exposition » apparaît dans le décret du 9 novembre 1973 qui ratifie la convention n° 136 du Bureau International du Travail sur le benzène. Depuis lors, des valeurs limites réglementaires et des listes de valeurs indicatives sont introduites dans la réglementation française. Ces valeurs s’appuient sur des directives européennes et sont périodiquement révisées en fonction des progrès des connaissances.

      Sur le plan européen, la directive cadre n° 89/391 du 12 juin 1989, transposée en droit français par la loi du 31 décembre 1991, a fixé les mesures à mettre en oeuvre pour. promouvoir l’amélioration de la sécurité et de la santé au travail. Elle introduit l’obligation pour le chef d’entreprise d’élaborer et de mettre en place une démarche globale de prévention fondée sur l ’application des principes généraux de prévention et sur une évaluation des risques. Le chef d’entreprise doit mettre en application les principes de préventions suivants :

      _ éviter les risques ;

      _ évaluer les risques qui ne peuvent être évités ;

      _ combattre les risques à la source ;

      _ adapter le travail à l’homme, en particulier en ce qui concerne la conception des postes de travail ainsi que le choix des équipements de travail et des méthodes de travail et de production, en vue notamment de limiter le travail monotone et le travail cadencé afin de réduire les effets de ceux-ci sur la santé ;

      _ tenir compte de l’état d’évolution de la technique ;

      _ remplacer ce qui est dangereux par ce qui n’est pas dangereux ou ce qui l’est moins ;

      _ planifier la prévention en y intégrant, dans un ensemble cohérent, la technique, l’organisation du travail, les conditions de travail, les relations sociales et l’influence des facteurs ambiants ;

      _ prendre des mesures de protection collective en leur donnant la priorité sur les mesures de protection individuelle (en aucun cas ces mesures ne doivent entraîner des charges financières pour les travailleurs) ;

      _ donner les instructions appropriées aux travailleurs (lorsqu’il confie des tâches à un travailleur, l’employeur doit prendre en considération les capacités de celui-ci à mettre en oeuvre les précautions nécessaires pour la sécurité et la santé).

      

      Cette directive introduit bien l’impératif d’agir dans le sens d’une amélioration des pratiques préventives mais son application reste encore disparate. D’autre part le chef d’entreprise doit prendre les mesures nécessaires en terme d’actions d’information et de formation adaptées pour assurer la sécurité et protéger la santé des salariés.

      

      

      

       1.3.3.Informer et former les salariés pour protéger leur santé et assurer leur sécurité

      

       Partant du constat que l’ignorance était parfois à l’origine d’accidents, il est apparu nécessaire d’informer les travailleurs des risques présentés par certaines installations, produits ou matériels. Déjà les règlements les plus anciens prévoyaient l’affichage des consignes ou d’extraits de règlement. Ainsi, l’étiquetage des produits chimiques dangereux permet aux travailleurs de prendre connaissance des risques que présentent ces produits et des conseils de prudence. Le salarié doit être informé des risques liés à l’exécution du travail et à la circulation dans l’entreprise. L’information porte entre autres sur :

      _ les comportements et les gestes les plus sûrs en ayant recours si possible à des démonstrations ;

      _ l’utilité des méthodes de sécurité prescrites ;

      _ les modes opératoires retenus s’ils ont une incidence sur sa sécurité ou celle des autres salariés ;

      _ le fonctionnement des dispositifs de protection et de secours et les motifs de leur emploi ;

      _ les règles de circulation des véhicules ou engin de toute nature sur les lieux de travail et dans l’établissement ;

      _ les issues et dégagements de secours à utiliser en cas de sinistre ;

      _ les instructions d’évacuation pour le cas notamment d’explosion, de dégagement accidentel de gaz ou de liquides inflammables, si la nature des activités exercées le justifie.

      De plus, le salarié doit recevoir les instructions nécessaires sur la conduite à tenir lorsqu’une personne est victime d’un accident ou d’une intoxication sur les lieux de travail pour qu’il puisse, lorsqu’il est témoin d’un accident, prendre des dispositions concourant à la sauvegarde de la victime tout en préservant sa propre intégrité physique. De même, les comités d’hygiène et de sécurité des conditions de travail et les travailleurs exposés doivent être obligatoirement informés sur les risques, les mesures de prévention et les résultats des contrôles. Enfin, chaque salarié a le droit de connaître les résultats de ses propres analyses biologiques.

      

      

      Concernant la formation, la loi du 6 décembre 1976 a introduit une obligation pour l’employeur de dispenser une formation pratique et appropriée à la sécurité. Les actions de formation sont mises en place en collaboration avec le médecin du travail et le CHSCT. Elles sont intégrées dans le programme annuel de prévention présenté au CHSCT et figurent au bilan social de l’entreprise. La formation à la sécurité doit être pratique, appropriée et tenir compte :

       _ des qualités des salariés appelés à en bénéficier (formation initiale, expérience professionnelle, qualification, langue parlée et écrite...) ;

       _ des risques propres à l’établissement ou au chantier ;

       _ des risques auxquels le salarié est exposé ;

       _ des tâches qui seront effectivement confiées au salarié.

      Ces orientations de la législation sont reprises dans les directives européennes. La Charte communautaire des Droits sociaux fondamentaux prévoit notamment la nécessité d’une formation, d’une information, d’une consultation et d’une participation équilibrée des travailleurs en ce qui concerne les risques encourus et les mesures prises pour supprimer ou réduire ces risques. Formation et information sont dispensées sur les lieux de travail et pendant le temps de travail et rémunérées comme tel et doivent être repérées périodiquement si cela est nécessaire. Le chef d’entreprise doit veiller à l’adaptation de l’ensemble de ces mesures pour tenir compte du changement des circonstances et pour tendre à l’amélioration des conditions existantes. Le manquement à ces obligations peut donner lieu en cas de constatation d’une situation dangereuse par l’inspecteur du travail, à une mise en demeure du Directeur départemental du travail et de l’emploi. Le non respect de cette mise en demeure est puni de peine de police. De même, si un travailleur est victime d’un accident du travail ou d’une maladie professionnelle alors qu’il avait signalé le risque à l’employeur, ce dernier est considéré comme ayant commis une faute inexcusable, sans qu’il soit nécessaire d’en faire la preuve.

      

      

      

       1.3.4.Droits et devoirs des salariés et du chef d’entreprise

      

       La sécurité concerne chacun dans l’entreprise. Dans ces conditions, les salariés doivent être informés, formés, consultés... mais ils ont également des obligations. Ils doivent notamment participer à la mise en oeuvre des mesures prises pour garantir la santé et la sécurité, en respectant les instructions données par l’employeur. Dans les entreprises de plus de 20 salariés, ces instructions de l’employeur sont inscrites dans le règlement intérieur. Ainsi, il incombe à chaque salarié de prendre soin, en fonction de sa formation et selon ses possibilités, de sa sécurité et de sa santé ainsi que de celles des autres personnes concernées du fait de ses actes ou de ses omissions au travail. Face à une situation présentant un danger grave et imminent pour la santé ou la vie des travailleurs, les salariés disposent de droits particuliers. Le salarié doit signaler à l’employeur la situation dangereuse et ce dernier ne peut pas lui demander de reprendre son activité si le danger persiste. Le salarié peut se retirer de la situation dangereuse : ce droit bénéficie à tout salarié ou groupe de salariés lorsqu’une situation présente un danger grave et imminent pour leur vie ou la santé. L’exercice de ces deux droits, respectivement droit d’alerte et droit de retrait ne peut donner lieu à aucune sanction ni retenue de salaire.

      

      Le chef d’entreprise doit donc évaluer les risques pour la sécurité et la santé des travailleurs, y compris dans le choix des procédés de fabrication, des équipements de travail, des substances ou préparations chimiques, dans l’aménagement ou le réaménagement des lieux de travail ou des installations et dans la définition des postes de travail. En application de ces dispositions le nouvel article R 230-1 (J.O. du 07.11.01) du code du travail prévoit que l’évaluation comporte un inventaire des risques identifiés dans chaque unité de travail de l’entreprise ou de l’établissement. Il prévoit également que les résultats de cette évaluation doivent être transcrits dans un document unique, tenu à la disposition des membres du Comité d’Hygiène et de Sécurité des Conditions de Travail (C.H.S.C.T.) ou des instances qui en tiennent lieu. Ce document sera utilisé pour l’établissement du bilan et du programme annuels de prévention présentés par le chef d’établissement au C.H.S.C.T.. Ainsi à la suite de cette évaluation, les actions de prévention ainsi que les méthodes de travail et de production mises en oeuvre par l’employeur devront garantir un meilleur niveau de protection de la sécurité et de la santé des travailleurs et être intégrées dans l’ensemble des activités de l’établissement et à tous les niveaux de l’encadrement.

      

      

      

      

      

      

      Evaluer les risques pour les maîtriser

      

       Le développement des grands sites industriels induit des risques importants notamment par suite des énergies mises en jeu ou par leur complexité (électronucléaire ou aéronautique). L’accélération de l’évolution des techniques réduisant de plus en plus l’expérience acquise, des risques nouveaux et mal connus apparaissent. Dans le cadre du travail, chacun des acteurs doit être conscient que le risque zéro n’existant pas, c’est donc par la maîtrise du risque que l’on peut approcher le zéro accident. Ceci, associé à l’évolution de la réglementation, fait naître le besoin de concevoir ou de développer des outils permettant de maîtriser le risque de manière prévisionnelle et a notamment contribué au développement de l’approche systémique des installations industrielles. L’approche systémique est une démarche d’analyse conçue pour répondre à la complexité caractérisant de nombreuses formes d’organisations biologiques, sociales ou socio-techniques et où l’étude des interactions entre les différents éléments du système tient un place centrale. A l’origine de cette démarche, les préoccupations concernaient surtout la fiabilité des techniques mises en oeuvre. Les efforts ont été concentrés sur la mise au point d’une méthode, d’un outil d’analyse qui permettrait de procéder à l’analyse systématique des risques notamment des risques de défaillance. C’est la méthode de l’arbre des défauts ou arbre des défaillances, élaborée au début des années 1960 par la compagnie des téléphones Bell pour le compte de l’armée américaine qui répondit à cette exigence. Le développement de cette méthode sera poursuivi par la compagnie Boeing. Celle-ci alliée à l’université de Washington la diffusera lors d’un symposium sur la sécurité des systèmes, organisé en 1965. Au début des années 1970, une étude représentant la première analyse exhaustive des risques pour les centrales nucléaires américaines contribuera au développement de l’analyse probabiliste du risque en privilégiant délibérément à travers l’utilisation de l’arbre des défauts, la quantification du risque. La publication du rapport de cette étude (rapport Wash-1400 ou rapport Rasmussen) en 1975 engendra une polémique. L’American Institute of Physics adressa un certain nombre de reproches méthodologiques et techniques à l’encontre de ce rapport, ce qui conduisit à l’élaboration d’une seconde version. Celle-ci sera elle-même remise en question par le rapport Lewis effectué à la demande du Congrès des Etats-Unis et publié en 1978. Le rapport Lewis émet de nombreuses critiques portant sur la validité des données de base et sur les moyens méthodologiques et statistiques utilisés. Il insiste sur la nécessité de disposer de méthodes plus sûres de quantification de l’incertitude. Ces conclusions contribuèrent à la décision prise début 1979 par la Nuclear Regulatory Commission de rejeter les résultats fournis par le rapport Wash-1400. Mais l’accident survenu au mois de mars 1979 à la centrale nucléaire de Three Mile Island contribua à relancer l’intérêt pour les analyses probabilistes des risques dans le nucléaire. En effet, le scénario de l’accident reconstitué par la suite avait été prévu par le rapport Wash-1400. Les catastrophes industrielles ont indéniablement favorisé le développement de méthodes d’analyse des risques. Les pertes humaines, matérielles et écologiques consécutives à ces accidents majeurs entraînent des conséquences sociales, environnementales et économiques qui nécessitent de trouver rapidement des solutions efficaces. En effet, le développement et la diffusion de ces méthodes et techniques nouvelles ont été renforcées par l’évolution prise par une industrie génératrice de risques nouveaux, de plus en plus importants et à l’origine d’accidents majeurs.

      Ainsi, la sécurité des systèmes s’est progressivement constituée comme discipline selon une logique propre de conception et d’amélioration progressive des méthodes et techniques d’analyse.

      La directive européenne Seveso du 24 juin 1982 et la loi française sur les installations classées du 19 juillet 1976 constituent des réponses réglementaires à la gestion des accidents majeurs. Bien que formulant des obligations de résultats et non de moyens, elles conduisent les industriels à rechercher et à adopter des procédures efficaces d’analyse des risques comme la sécurité des systèmes. En effet, la directive Seveso fait obligation aux états membres de la Communauté européenne de prendre toutes les mesures nécessaires pour que les responsables de certaines activités industrielles (mis à part notamment les installations nucléaires et militaires) puissent prouver qu’ils ont déterminé « les risques d’accidents majeurs existants, pris les mesures de sécurité appropriées et informé, formé et équipé afin d’assurer leur sécurité, les personnes qui travaillent sur le site » (article 4 de la directive). Cette directive s’applique en France au moyen de la loi sur les « installations classées » et du décret d’application du 21 septembre 1977. Cette législation soumet les installations « pouvant présenter des dangers ou des inconvénients soit pour la commodité du voisinage, soit pour la santé, la sécurité, la salubrité publiques... « à autorisation ou déclaration » suivant la gravité des dangers ou inconvénients que peut représenter leur exploitation ».

      

      Dans la conception française de la prévention, le chef d’établissement est le seul responsable de la sécurité de ses salariés. Détenant le pouvoir et les moyens de déterminer les procédés de travail et le choix du matériel, il a seul la possibilité d’assurer la sécurité du travail. En aucun cas, l’état n’entend se substituer au rôle actif que le chef d’entreprise doit assurer personnellement, même lorsqu’il intervient pour protéger les travailleurs en imposant aux employeurs des obligations et en veillant à ce qu’elles soient remplies.

      

      

      

      

       1.3.5.Les structures de la prévention

      

       La prévention ne peut être performante qu’à condition de reposer sur une base législative imposant au chef d’entreprise des prescriptions d’ordre public et sur l’institution d’un système de contrôle efficace. Plusieurs ordres de compétence complémentaires en matière de prévention ont été mis en place par le législateur :

       _ les pouvoirs publics qui, notamment par l’intermédiaire des Ministres chargés du travail et de la sécurité sociale, définissent la politique de prévention, préparent les règlements et veillent à leur application. L’inspection du travail a été réorganisée en 1892 pour contrôler l’application des premiers règlements relatifs à l’hygiène et à la sécurité du travail. Ses attributions touchent maintenant tous les domaines du droit du travail et permettent à l’inspecteur du travail d’avoir une vision globale du fonctionnement de l’entreprise. Les directeurs régionaux du travail sont assistés par des médecins inspecteurs, qui ont pour mission de veiller, en liaison avec l’inspecteur du travail, à l’application de législation relative à l’hygiène et à la protection de la santé des travailleurs, et de contrôler le fonctionnement des services médicaux du travail ;

      

       _ les organismes de Sécurité sociale qui, dans le cadre de leur mission de gestion du risque accident du travail et maladie professionnelle, développent une action d’incitation à la prévention par les entreprises. Les services prévention des caisses régionales d’assurance maladie ont pour rôle de développer et de coordonner la prévention des accidents du travail et des maladies professionnelles et de concourir à l’application des règles de tarification. Leur action, fondée sur l’étude des risques professionnels révélés ou potentiels (visites, contrôles, sollicitations d’origines diverses, statistiques) s’exerce compte tenu des caractéristiques régionales dans le cadre général de la politique de prévention élaborée avec l’aide de la Caisse nationale. Placé sous tutelle et financé par la Caisse nationale, l’Institut national de recherche et de sécurité (INRS), est un organisme scientifique et technique jouant un rôle de bureau d’études de l’institution prévention ;

      

       _ des organismes paritaires qui, dans le cadre de la profession, peuvent se voir confier par voie réglementaire un rôle spécifique en matière de prévention ;

      

       _ au niveau de l’entreprise, des instances spécifiques sont chargées d’assister le chef d’établissement et d’associer les salariés à la politique de prévention c’est l’exemple des comités d’hygiène et de sécurité des conditions de travail.

      

      

      S’il incombe aux chefs d’entreprise, aux experts et aux pouvoirs publics de gérer les risques professionnels, le salarié afin de respecter ses obligations mais aussi (surtout ?) de faire respecter ses droits doit être formé à la maîtrise des risques inhérents à son activité professionnelle. Dans le domaine professionnel, on parle généralement d’une formation à l’hygiène et à la sécurité des conditions de travail inclue dans l’Enseignement de la Prévention des Risques Professionnels.

      

      

      

       1.3.6. L’Enseignement de la Prévention des Risques Professionnels (EPRP)

      

       La sécurité est une science jeune qui s’appuie sur des disciplines fondamentales comme les mathématiques, la physique, la chimie, la biologie, la physiologie, la psychologie, la sociologie et les sciences économiques et juridiques et qui peut se définir comme étant la science de la détection et de la maîtrise des dysfonctionnements.. Cette science s’enseigne dans le cadre de formations spécifiques notamment dans les filières d’enseignement professionnel mais selon le protocole d’accord du 01.10.1997, « l’éducation des enfants à la sécurité doit débuter dès l’école maternelle par une sensibilisation et se poursuivre tout au long des études afin que chacun puisse acquérir le réflexe de sécurité vis à vis de lui même et de ses semblables. Elle doit se poursuivre au niveau supérieur notamment dans les écoles d’ingénieurs et les universités quel que soit le cursus choisi afin que chaque concepteur-décideur puisse avoir conscience des impacts et des dangers de l’activité qu’il développera dans son métier, qu’il soit technicien, ingénieur, architecte, agriculteur-éleveur ou médecin. » L’enseignement de la sécurité est donc un enseignement de base, pluridisciplinaire, fondé sur l’expérience. Ces nouvelles caractéristiques du travail ont également pour conséquence une plus grande difficulté de perception des risques professionnels liée à une moindre lisibilité et à l’apparition de risques nouveaux. « Il devient alors essentiel d’intégrer ces nouvelles dimensions du risque professionnel dès la formation initiale au métier, car l’école dispose du recul nécessaire et des personnels qualifiés pour prendre en compte cette mutation du travail.». (Sécurité des élèves, protocole d’accord du 01.10.1997, B.O. n°39 du .06.11.1997) Chaque titulaire d’un diplôme professionnel doit être acteur de sa situation de travail avec des objectifs de sécurité, de santé et d’efficacité. Pour ce faire il doit connaître son poste de travail ainsi que son environnement, être au fait des textes, normes et réglementation en vigueur, acquérir des connaissances scientifiques et techniques sur les risques professionnels et leur prévention et enfin maîtriser les démarches permettant d’appréhender, analyser, gérer les risques liés à une situation de travail donnée. C’est sans aucun doute ce dernier point qui semble être le plus difficile à développer. Afin d’atteindre les finalités fixées, la formation à la maîtrise du risque dans le cadre de la formation professionnelle sous statut scolaire, passe nécessairement par le développement de relations très étroites entre le monde de l’enseignement, le monde industriel et celui de tous les professionnels de la prévention mais aussi au sein même des établissements entre les professeurs chargés de l’enseignement des techniques professionnelles, le PLP Biotechnologies Santé Environnement professeur d’hygiène prévention secourisme, l’infirmière et le comité d’hygiène et de sécurité entre autres.

      L’EPRP s’est donc développé en formation initiale à partir de la mise en place des Bac. Professionnels du secteur industriel et du Bâtiment et Travaux Publics, avec notamment l’enseignement optionnel d’Hygiène Prévention Secourisme (assuré par le PLP Biotechnologies Santé environnement) et celui obligatoire d’Ergonomie Sécurité (assuré à la fois par le professeur de Techniques Professionnelles et le PLP Biotechnologies Santé Environnement). L’enseignement de l’Hygiène Prévention Secourisme a été rénové en 2000 et « a pour objectifs :

       _ de faire appréhender les effets sur la santé d’une situation de travail,

       _ de faire comprendre les mesures de prévention afin de conduire le futur professionnel a être une force de proposition au sein de l’entreprise,

       _ de faire acquérir un comportement efficace et adapté face à une situation d’urgence,

       _ de faire appréhender les enjeux sociaux et économiques de la prévention des risques professionnels.

      En classe de BEP, l‘Enseignement pour la Prévention des Risques Professionnels est abordé en Vie Sociale et professionnelle. Il est un axe majeur du nouveau référentiel de Vie Sociale et Professionnelle en CAP : « la VSP permet d’adopter une attitude responsable dans le domaine des risques professionnels. En effet, la VSP aide la personne à repérer les risques liés au travail, au matériel, aux produits, aux ambiances, aux gestes et postures et à proposer des mesures de prévention. »

      

      La sécurité peut ainsi être envisagée comme une science de la maîtrise des risques professionnels mais il semble que l’on puisse extrapoler son champ d’action à la globalité de la vie sociale. En effet, la sécurité est une science indispensable à la vie dans une société en perpétuel développement technologique, elle est l’affaire de chacun, de chaque citoyen, quelle que soit sa fonction sociale. Les risques qu’ils soient naturels ou technologiques, affectent la santé de l’homme mais aussi l’environnement dans lequel il évolue. L’évaluation des risques de l’environnement sur la santé est aujourd’hui une affaire publique. Gérer sa santé c’est maîtriser les risques. Mais peut-être se doit-on de rechercher des formes positives des modes de prévention qui viseraient à assurer à chacun dans sa vie professionnelle comme dans sa vie familiale et sociale son capital santé tout en préservant son environnement. Ainsi pourrait-on parler de promotion Santé Environnement. Le choix de permettre l’exercice de la responsabilité et de l’accompagner, de proposer des alternatives aux conduites à risques en développant et en renforçant l’estime de soi , en impliquant et en mobilisant les pairs, en renforçant les cohérences internes à l’établissement scolaire et la cohérence avec l’environnement (familles, quartier, institutions, monde de l’entreprise), c’est celui de placer la prévention au service de la promotion de la santé et du développement durable.

      

      

      


1.4. La prévention dans le domaine Santé Environnement

      

      

       Les concepts de santé et d’environnement sont des concepts relativement « jeunes », en constante évolution et à promouvoir. La santé publique est une discipline à part entière dont le but est la santé de la population et non celle de l’individu (celle-ci relève de la médecine). La santé publique intègre le concept de santé à la société. La santé étant définie comme une ressource, un état d’équilibre entre l’individu et son milieu. La santé publique s’efforce de valoriser cette ressource en tentant de maîtriser les risques, notamment par la prévention et la promotion de la santé.

      

      

       1.4.1. Gestion des risques en santé publique et promotion de la santé et d’un environnement durable

      

      Le concept de santé

      

       La définition de la santé comme absence de maladie, confondant l’état «normal» d’un sujet avec l’état antérieur à l’apparition de sa maladie est communément remise en compte. La maladie est de moins en moins considérée comme une entité spécifique, sans lien fondamental avec la personnalité du malade, sa constitution physique ou son genre de vie. La santé est un territoire aux contours de plus en plus étendus: cancers, maladies cardiaques ou respiratoires, nouvelles infections, nouvelles attitudes à risque, drogues, consommations abusives, accidents, vigilance portée aux troubles psychologiques... Il existe des facteurs multiples et inter dépendants : l’environnement, les modes de vie, le milieu social, la carte génétique. Ainsi les définitions globales de la santé ont évolué au cours du siècle. La première conférence sanitaire internationale s’est tenue à Paris en 1851, en 1907 l’office international d’hygiène publique a été créé. Mais c’est à San Francisco en 1945 lors de la conférence des Nations Unies, que sera adoptée à l’unanimité la recommandation rédigée par les délégations du Brésil et de la Chine, concernant l’établissement d’une organisation internationale de la santé. Durant cette période de reconstruction d’après guerre, la foi dans la démocratie et le progrès social est immense. La médecine étant considérée comme un des piliers d’un développement universel et harmonieux. Le 19 juin 1946 à New York, lors de la première conférence internationale, la constitution de l’O.M.S. est rédigée dans sa forme définitive. La définition suivante de la santé est adoptée :

      

      

      

       Définition O.M.S. de la santé de 1946

      

       La santé est un état complet de bien être physique, mental et social et ne consiste pas seulement en une absence de maladie ou d’infirmité. C’est une ressource pour la vie quotidienne et non pas le but de la vie.

      

      En 1986 lors de la conférence d’Ottawa, la charte pour l’action, visant la santé pour tous d’ici l’an 2000 est rédigée.

      

      

       Charte d’Ottawa, novembre 1986

      

       La santé est la mesure dans laquelle un groupe ou un individu peut d’une part, réaliser ses ambitions et satisfaire ses besoins, et d’autre part, évoluer avec le milieu ou s’adapter à celui-ci. Les conditions et ressources préalables à la santé sont la paix, un abri, de la nourriture et un revenu.

      

      Le 18 avril 1988, le Comité des ministres du Conseil de l’Europe proposait une définition de la santé très proche de celle de l’O.M.S. : La santé est une qualité de la vie comportant une dimension sociale, mentale, morale et affective tout autant que physique.

      L’environnement est un déterminant essentiel de la santé, aussi bien le lieu de vie (la ville, le quartier, la cité, le bâtiment ou le village, la campagne..) que les relations humaines (la bande, les copains, la famille, l’amitié, l’amour, la confiance..). Ainsi les préoccupations dans le domaine de la santé sont-elles liées à l’environnement et formulées en terme de violence. Violence extérieure, sur laquelle l’individu semble ne pas avoir de prise : la guerre, la pollution et la dégradation de l’environnement, le divorce des parents, le cancer, le racket, les agressions.... Violence générée par l’individu à l’encontre de lui-même se traduisant par des comportements autodestructeurs : suicide, toxicomanie, délinquance...

      Chaque individu a sa propre conception de la santé : santé/maladie, santé-instrument, ressource pour l’accomplissement personnel ou encore santé-institutions curatives ou politiques préventives selon le pouvoir qu’il pense avoir sur celle-ci. Ainsi lorsque la santé est considérée comme un état normal pouvant être accidentellement perturbé par des événements incontrôlables, alors il semble qu’il n’y a rien de particulier à faire pour la préserver. Néanmoins, la santé en cette fin du 20ème siècle tend à être reconnue comme une dynamique, la capacité de l’organisme permettant de préserver un équilibre, de s’adapter à un environnement en perpétuelle mutation de manière à assurer la survie de l’espèce aussi bien que l’accomplissement personnel. Du 21 au 25 juillet 1997 s’est tenue à Jakarta en Indonésie, la cinquième conférence internationale de l’O.M.S. sur la Promotion de la santé dont le slogan est: « amener la promotion de la santé dans le 21ème siècle ».

      

      

      

      La santé, un concept à promouvoir

      

       La promotion de la santé est l’ensemble des moyens (Information-Education- Formation) destinés à augmenter le capital santé de la population et qui confèrent aux populations les moyens d’assurer un plus grand contrôle sur leur propre santé et d’améliorer celle-ci.

      C’est au cours de la conférence internationale sur les soins de santé primaire réunissant l’O.M.S. et l’U.N.I.C.E.F. à Alma Ata en 1978, que le concept de promotion de la santé s’est imposé.

      

       La promotion de la santé soutient le développement individuel et social en offrant des informations (la condition première pour qu’un individu puisse adopter un mode de vie et des comportements propices à sa santé est qu’il soit informé des risques et des avantages que représente tel facteur ou tel comportement. L’information sur la santé est une composante constante et essentielle de la promotion), en assurant l’éducation pour la santé et en perfectionnant les aptitudes indispensables à la vie. Ce faisant elle permet aux gens d’exercer un plus grand contrôle sur leur propre santé, et de faire des choix favorables à celle-ci. Il est crucial de permettre aux gens d’apprendre pendant toute leur vie et de se préparer à affronter les diverses étapes de celle-ci. Cette démarche doit être accomplie à l’école, dans les foyers, au travail et dans le cadre communautaire, par les organismes professionnels, commerciaux et bénévoles et dans les institutions elles- mêmes.

      Les auteurs des stratégies de promotion de la santé doivent adopter comme principe directeur le fait que, à tous les niveaux de la planification, de la mise en oeuvre et de l’évolution de la promotion de la santé, hommes et femmes sont des associés égaux. Les participants de cette conférence s’engagent à accepter la communauté (au sens de l’O.M.S. : groupe d’individus qui vivent ensemble dans des conditions spécifiques d’organisation et de cohésion sociale) comme le principal porte-parole en matière de santé, de conditions de vie et de bien être.

      La promotion de la santé élargit le concept de prévention; elle met à la disposition des populations les moyens techniques, économiques, sociaux et culturels qui leur permettront d’augmenter leur capital santé. Ainsi, la promotion de la santé ne relève pas du seul domaine sanitaire : elle dépasse les modes de vie sains pour viser le bien-être. La prise de conscience du poids de l’environnement, comme celle du poids des mécanismes économiques, sociaux et culturels sur la santé de chacun amène à prendre en compte l’interdépendance des facteurs de santé et à admettre que seules les décisions individuelles ne peuvent souvent guère entraîner de profonds changements et qu’il existe donc un enjeu d’actions collectives. Il apparaît important de renforcer le lien social au moment même où les sociologues en soulignent l’affaiblissement possible. Ainsi, la participation communautaire : processus dans lequel les individus et les familles prennent en charge leur propre santé et leur propre bien-être comme celui de la communauté et développent leur capacité de concourir à leur propre développement comme à celui de la communauté est déterminante pour la réalisation du potentiel santé. Ces individus et ces familles en viennent aussi à mieux appréhender leur propre situation et à être animés de la volonté de résoudre leurs problèmes communs, ce qui les mettra en mesure d’être les agents de leur propre développement. Néanmoins chaque individu doit se sentir responsable pour une grande part de la qualité de son environnement quotidien, pour y exercer des actions préventives mais aussi pour demander à la société d’apporter des solutions à des pollutions plus diffuses. Il est important que l’éducation pour la santé puisse contribuer à desserrer l’étau du collectif et (ré ?) introduire la liberté individuelle. Le public doit devenir acteur de sa prévention, c’est à dire doit être capable de s’interroger, s’informer, d’anticiper et d’agir en modifiant librement ses comportements dans un souci de mieux-être individuel et collectif, mais aussi en contraignant les différentes instances sanitaires à prendre des décisions sur des problèmes dépassant les compétences individuelles. La 5ème conférence mondiale sur la promotion de la santé s’est tenue du 5 au 9 juin 2000 à Mexico. Avec le thème « faire place à l’équité », cette conférence s’est attachée tout particulièrement à trouver les moyens d’atteindre les personnes qui vivent dans des conditions défavorables du fait de leur pauvreté, de leur sexe, de leur âge, de leurs incapacités ou de leur appartenance éthnique. L’un des objectifs principaux de la conférence était d’illustrer l’impact des stratégies de promotion de la santé sur la santé et la qualité de vie des populations qui en ont le plus besoin, rompant ainsi avec l’association promotion de la santé : pays industrialisés.

      

      Ainsi, une politique de promotion de la santé combine des méthodes différentes mais complémentaires, notamment des mesures législatives et fiscales favorisant une plus grande égalité sociale. Elle doit permettre d’offrir à chacun des citoyens des biens et des services plus sains. L’évolution des modes de vie, de travail et de loisirs doit améliorer la santé de la population. De même les conditions de vie et de travail doivent être les plus saines et les plus plaisantes possibles. L’évaluation des effets de l’environnement sur la santé doit être systématique car les individus sont unis de façon inextricable à leur milieu et une approche socio-écologique de la santé doit absolument être envisagée. Le concept d’environnement nécessairement associé à celui de santé a lui aussi évolué illustrant les rapports entre l’homme et le milieu dans lequel il évolue.

      

      

      De la notion d’écologie à celle d’environnement

      

       A partir de la Renaissance et jusqu’au milieu du 20 ème siècle, la nature apparaissait soumise à l’homme, à sa science et à ses techniques. Pourtant vers 1960, certaines catastrophes écologiques sont le déclic d’une prise de conscience d’une altération de la biosphère et d’une nécessaire sauvegarde de la nature. Cette prise de conscience politique et sociale s’accompagne des prémices d’un enseignement d’écologie. C’est dans les années 70 que s’effectuera le passage de la notion de milieu naturel au concept d’Environnement. J.P. Deleage ( 1991 ) souligne que la vision prométhéenne de la soumission de la nature à l’humain est devenue hégémonique dans la culture de l’occident à partir de la Renaissance. J. Dewey ( 1975 ) confirme ce nouvel intérêt porté à la vie présente de l’homme et donc à ses rapports avec la nature. L’aphorisme ’Savoir , c’est pouvoir ’, énonce le pouvoir que confèrent à l’homme les sciences de la nature sur celle-ci. Ce pouvoir renforce l’opposition entre l’homme et la nature, le premier contrôlant la seconde, en utilisant ses forces pour réaliser ses propres fins. Selon J. Dewey, il existe à cette époque une séparation de fait entre l’esprit qui caractérise l’homme et la matière qui constitue la nature. Il a fallu attendre 1872 pour que différentes associations naissent pour ’conserver’ la faune et la flore sauvage (exemple : la Société Zoologique d’Acclimatation). Et ce n’est que dans les années 60 que la nature sera présentée comme le complément de l’homme moderne, source de santé, de bien être et de satisfactions diverses. Le thème de l’unité profonde de l’homme et de la nature, banal au 19ème siècle connaît un essor au 20ème. L’humanisme prométhéen selon lequel l’homme apparaissait comme le partenaire triomphant de la nature est peu à peu abandonné. C’est donc dans les années 60 qu’un enseignement des facteurs écologiques apparait dans les programmes du secondaire de certains pays, ayant comme point de mire le milieu naturel. En même temps une prise de conscience politique s’est opérée. En 1962, est créé un comité d’experts européens pour la sauvegarde de la nature et des ressources naturelles et la loi du 30.11.65 aborde les problèmes d’aménagement rural et de gestion des parcs régionaux et nationaux. En 1968 se tient la réunion du club de Rome sur le thème : exploitation et conservation des ressources naturelles. Le 24.10.70 J. Chaban Delmas alors premier ministre de la France lançait un vaste programme de réflexion pour assurer une maîtrise plus grande de l’environnement et faire apparaître les responsabilités incombant aux divers départements ministériels et aux collectivités publiques intéressés. Au début des années 70 s’effectue le passage de la notion dominante de milieu naturel à celle de l’environnement humain. En effet, 1970 est l’année Européenne de la Nature, organisée par le Conseil de l’Europe. La notion de Protection de la Nature purement naturaliste a évolué et s’est transformée en celle de Protection de l’Environnement et de la Qualité de Vie beaucoup plus économico-écologique selon Georges Tendron ( 1990) sous directeur honoraire du muséum national d’histoire naturelle car elle réunit à la fois l’économie de la Nature et l’économie des Hommes. C’est en quelque sorte une reconnaissance de l’inter-relation entre l’Homme et la Nature, qu’un développement scientifique, technique et économique avait quelque peu estompé. Cette période correspond à la création de différentes associations comme Vive France Nature Environnement (1968) et GreenPeace (1971). Le rapport L. Armand remis au premier ministre le 11.05.1970 servit de document de travail en vue d’une large consultation. Un programme de cent mesures pour l’environnement fut présenté autour de quatre types d’action :

       _ recherche étude,

       _ information éducation,

       _ action concrète sur le terrain,

       _ action législative et réglementaire.

      

      A la même époque G. Pompidou Président de la République Française, déclarait à Chicago : « Il faut créer et répandre une sorte de morale de l’environnement imposant à l’état, aux collectivités, aux individus, le respect de quelques règles élémentaires faute desquelles le monde deviendrait irrespirable. » Cette même année l’Unesco lance son programme de recherche Man et Biosphère. La définition du concept environnement telle qu’on la découvre alors dans les différentes publications est la suivante : L’environnement désigne l’ensemble des conditions biologiques, physiques, chimiques, socioculturelles et économiques susceptibles d’influencer les activités humaines et celles des organismes vivants en général. Le conseil National des Programmes s’attache lui, à la notion de relations d’interdépendance entre l’homme et ces différentes conditions. Le 10 mai 1974 lors des élections présidentielles V. Giscard d’Estaing présente un programme en dix-huit points, de défense de l’environnement. Le premier programme environnemental est adopté par le Conseil de la Communauté Européenne le 22.11.73 ( fixation de normes, stratégies communes, action au sein des organismes internationaux ). La notion de Protection de la Nature et de l’Environnement s’est officialisée et par là même politisée. Selon G. Tendron (1990), cette politisation des problèmes liés à la protection de l’Environnement peut être un bien en ce qu’elle les place au niveau du pouvoir donc des prises de décision et qu’elle responsabilise les gouvernements, les élus, les collectivités territoriales. Mais elle peut être aussi un danger dans la mesure où le pouvoir, sous la pression de groupes économiques puissants dont il est souvent partie prenante, cherche à minimiser ou à masquer les risques encourus. La loi du 21.07.76. présente alors l’environnement comme un volet qualitatif de la politique de l’aménagement du territoire et du cadre de vie. La priorité donnée jusqu’à présent au quantitatif est abandonnée au profit du qualitatif. Des programmes d’actions prioritaires voient le jour. Ils visent à améliorer la qualité et le cadre de vie et ont pour titre : « mieux vivre dans la ville «  ou encore :  «  défendre le patrimoine naturel  ». Précédemment le 10.07.76 a été adoptée la loi sur la protection de la nature qui sera la base de toutes les autres lois. Les dirigeants de la Fédération française des sociétés de Protection de la Nature ont beaucoup travaillé avec la commission des lois de l’Assemblée Nationale pour la mettre au point. La définition de l’environnement donnée par le Grand Larousse édition de 1976 est: « l’ensemble des éléments naturels et artificiels qui conditionnent la vie de l’homme ». C’est donc le cadre de vie qu’il est nécessaire de préserver pour une meilleure Qualité de Vie. Mais la loi du 17.07.79 définit l’environnement comme étant nécessairement une politique globale intégrée dans toutes les politiques sectorielles. Le concept d’environnement va alors évoluer vers celui de développement durable.

      

      

      Du concept d’environnement à celui de développement durable

       Le programme des Nations Unies pour l’environnement de 1980, recommande des

      politiques nationales et subnationales environnementales à caractère anticipatif. En France, une vaste consultation nationale des associations de défense de l’environnement précédée d’une rencontre nationale à Paris (le 23.10.81) est lancée dans le but d’élaborer des livres blancs régionaux regroupant les doléances et des propositions concrètes. Ces documents largement diffusés auprès des élus locaux et nationaux contribueront à permettre un dialogue entre élus et associations de protection de l’environnement. La loi du 13.07.83 insiste sur l’exigence d’une réflexion globale permettant la prise en compte de l’environnement en assurant la cohérence entre les politiques qui concourent au développement. De la nécessité d’une défense de la Qualité du Cadre de Vie, on passe dans les années 1980 à celle d’une politique globale. Dans ce cadre, une politique cohérente et durable d’Education à l’Environnement doit être mise en place. Pour ce faire un protocole d’accord sera signé en 1983 entre le Ministère de l’Education Nationale et celui de l’Environnement. Il sera appuyé par la circulaire du 23.05.89. A la fin de la décennie, le concept d’économie durable est introduit, la protection de l’environnement devient source d’emplois. En décembre 1989 ont lieu le colloque ’écologie et pouvoir’ organisé par le ministère de l’environnement et les Etats Généraux de la Culture Scientifique et Technique à la Cité des Sciences et de l’industrie de la Villette. Le dernier chapitre du rapport rendant compte des travaux de ces Etats Généraux s’intitule: « culture scientifique, technique et environnement » et introduit le concept d’économie durable. Un plan vert est décidé par le premier ministre cette même année. Il sera soumis au débat de l’Assemblée Nationale le 09.10.90. 1989 est également l’année de la déclaration de La Haye : «  Notre pays , c’est la planète », dont 24 pays sont signataires. Le jour de la terre ( créé le 22.04.70.aux U.S.A.) est honoré le 22.04.90. en France, année de la création de l’Agence Européenne de l’Environnement. Mais c’est en juin 1992, lors de la conférence sur l’environnement et le développement que les Nations Unies proposent un programme d’actions à mettre en oeuvre pour un développement durable, « un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures de répondre aux leurs ». C’est le rapport Brundtland, élaboré sous l’égide de l’ONU entre 1984 et 1987, qui a donné cette première définition de cette approche nouvelle. De suite, l’accent est mis sur la nécessité d’une éducation, ainsi dans le rapport de la conférence de Rio, on peut lire : « L’éducation revêt une importance critique pour ce qui est de promouvoir un développement durable et d’améliorer la capacité des individus de s’attaquer aux problèmes d’environnement et de développement. L’éducation, scolaire ou non, est indispensable pour modifier des attitudes, de façon que les

      

      

      populations aient la capacité d’évaluer les problèmes de développement durable. » Les premières réunions de la commission des Nations Unies sur le développement durable débutent dès 1993 et en 1997 les pays signataires du protocole de Kyoto, s’engagent à réduire leurs émissions de gaz à effet de serre, jugé responsable du réchauffement de la planète. En France, la Loi d’orientation 99-553 du 25-06-1999 relative à l’aménagement et le développement durable du territoire précise dans son article 1er : « Au sein d’un ensemble européen cohérent et solidaire, la politique nationale d’aménagement et de développement durable du territoire permet un développement équilibré de l’ensemble du territoire national alliant le progrés social, l’efficacité économique et la protection de l’environnement. Elle tend à créer les conditions favorables au développement de l’emploi et de la richesse nationale, notamment en renforçant la solidarité des entreprises avec leur territoire d’implantation et à réduire les inégalités territoriales, tout en préservant, pour les générations futures, les ressources disponibles ainsi que la qualité et la diversité des milieux naturels. » Dix ans après Rio, le sommet de Johannesburg est celui du développement durable. « A Johannesburg, les 110 membres de l’Institut mondial des sciences ont lancé un appel mondial, « face à la gravité sans précédent de la situation et à l’inertie suicidaire de nos dirigeants politiques et économiques ». « Rester silencieux serait, pour les scientifiques, se rendre complice d’un crime majeur contre l’humanité et l’ensemble de la biosphère. »  » (Vilarasau, avril 2003, p12) En novembre 2002, les ministres du gouvernement français se sont réunis pour un séminaire sur le développement durable. L’objectif de ce séminaire était d’impulser une stratégie nationale autour de six axes: « l’activité économique, l’aménagement et la gestion du territoire, la prévention et la réduction des inégalités, l’information et l’éducation, l’action internationale, et l’exemplarité de l’Etat  précise Tokia Saïfi, secrétaire d’Etat au développement durable. L’éducation au développement durable est une de mes priorités. Sans connaissance, il n’y a pas de prise de conscience. Le facteur déclenchant de l’engagement des citoyens en faveur du développement durable passe par cette prise de conscience en milieu scolaire et en dehors. » A la rentrée 2003, le développement durable s’intégrera dans les enseignements. « Outre les matières scolaires, ce sont les activités extrascolaires qui peuvent participer à cette éducation à l’environnement : les classes vertes, les sorties et les sports dans la nature... » Autre cheval de bataille du gouvernement: l’exemplarité de l’Etat: « Cela implique qu’il intègre le développement durable dans sa gestion quotidienne, notamment par le développement de démarches « éco-responsables » au sein des administrations et des établissements publics. » » (Vilarasau, avril 2003, p12) Ainsi, la poste a pris rang dans le programme « Global compact » lancé par les Nations Unies en janvier 1999, lors du forum mondial économique de Davos et mis en place le 26 juillet 2000. « Ce contrat invite les entreprises à adopter neuf grands principes universels ayant trait au respect des droits de l’homme, à l’interdiction du travail forcé et du travail des enfants, au développement d’une politique environnementale... Il réunit des ONG internationales ainsi que des grandes entreprises de dimension internationale: BP, Cisco Systems, DuPont, EDF, Ericsson, Renault, Suez, Unilever... » (Masson, mai-juin 2003, p18)

      « Pour élaborer cette stratégie nationale, un conseil du développement durable a été créé en janvier (2003). Il associe les institutions, les entreprises et la société civile par le biais d’associations telles que Greenpeace, l’Union fédérale des consommateurs ou la Plateforme pour le commerce équitable. Réunis en groupe de travail, ses membres sont chargés de faire en juin prochain des propositions concrètes au gouvernement dans les six domaines d’actions définis lors du séminaire. Par ailleurs une Charte de l’environnement est en cours d’élaboration. « L’objet de ce texte est de consacrer le droit à un environnement préservé à l’égal des autres libertés publiques, explique Tokia Saïfi. Une consultation des élus et de la société civile a été lancée sur tout le territoire français afin que les problématiques locales soient prises en compte dans la rédaction de la Charte .» » (Vilarasau, avril 2003, p12,13)

      Néanmoins, Bruno Rebelle, Directeur de Greenpeace France et membre de ce « conseil du développement durable » considèrent que les décisions vont à l’encontre des discours. « Le problème est que le gouvernement prend un certain nombre de décisions qui s’incrivent à l’encontre des discours qu’il fait. Concernant la politique agricole commune (PAC), tout le monde s’accorde à dire que la politique à laquelle la France s’accroche, c’est à la fois le productivisme à tout crin, l’érosion de la biodiversité, la pollution et le compactage des sols, et la dégradation de la qualité des produits proposés à la consommation. On subventionne des pratiques polluantes ! De plus, au plan international, la PAC est un handicap majeur imposé aux pays en voie de développement, qui entrave leurs capacités d’autoproduction et de développement. Autre exemple, l’énergie. Le gouvernement annonce un grand débat sur la politique énergétique, inscrit dans un effort de construction d’une stratégie de développement durable. Et on voit surgir des déclarations, y compris de la part du Premier ministre, selon lesquelles ce débat doit confirmer la part du nucléaire. Or, ce qui est durable dans le nucléaire, ce sont les déchets ! Le développement durable est devenu un sujet tarte à la crème. C’est très facile d’en parler. Mais dans les faits, le gouvernement plie sous les lobbies industriels et agricoles. On a accepté (de siéger au conseil national du développement durable) pour montrer notre bonne volonté. Mais, lors de la première réunion plénière, seulement un peu plus de la moitié des membres étaient présents. Si le conseil s’enorgueillit de compter des grands chefs d’entreprises, c’est très bien. Toutefois, ils doivent pouvoir être interpellés, et prendre des engagements en leur nom et en celui de leur compagnie. Surtout, on est dans un calendrier très serré. Comment voulez-vous, en trois ou quatre réunions de deux heures, définir la politique de développement durable de la France ? » Mais malgré ces critiques, B. Rebelle place ses espoirs dans l’action citoyenne: « Les changements se font principalement par la pression des acteurs de la société civile. On aimerait que le gouvernement entende ce qui se dit dans la rue, mais aussi les discours des associations, les avis des cabinets d’experts. » (Propos recueillis par Katia Vilarausau, avril 2003, p13) Sur le plan des collectivités locales, nombreuses sont celles qui ont mis en place un Agenda 21, c’est à dire un guide (établi lors de la conférence des Nations unies en 1992 à Rio) permettant la mise en oeuvre du développement durable pour le 21ème siècle. Environnement, habitat, transports, services sociaux, participation des habitants : tous les domaines sont concernés. Afin de sensibiliser les citoyens, le secrétaire d’Etat au développement durable a organisé du 2 au 8 juin 2003 la première « Semaine du développement durable » dont le thème est : « Le quotidien du citoyen durable ». Avec pour objectifs d’expliquer le concept au grand public et de le convaincre d’y adhérer. « Notre planète est en danger à cause de nos comportements, cela veut dire que les hommes sont eux-mêmes en danger. Nous devons arrêter les gaspillages, les pollutions de tout genre, permettre à tous les humains de répondre à leurs besoins les plus vitaux: se nourrir, se loger, être en bonne santé, être éduqué, travailler, s’épanouir. Ce sont les enjeux du développement durable. » Ainsi s’exprime Tokia Saïfi, Secrétaire d’Etat au développement durable dans le guide « Protégeons notre planète sur les conseils de la famille durable » édité à l’occasion de la semaine du développement durable. Selon Klaus Toepfer, Directeur exécutif PNUE: « Cette action s’inscrit dans la ligne des recommandations formulées au Sommet Mondial du Développement Durable à Johanesbourg et des décisions prises par les ministres de l’Environnement réunis dans le cadre du G8 les 25-27 avril 2003, à Paris. Les pays développés doivent montrer l’exemple et être les premiers à promouvoir des modes de consommation respectueux de l’environnement et socialement responsables. Ce guide « Protégeons la planète sur les conseils de la famille Durable » sera un outil utile pour sensibiliser le public aux enjeux liés à nos modes de production et de consommation et faire évoluer les consciences et les attitudes. Il ne s’agit pas de consommer moins, mais de consommer différemment, afin d’assurer la qualité de vie de tous. »

      

      

      Si la prévention se limite à permettre d’éviter le risque, alors la prévention des risques sanitaires et environnementaux peut s’envisager sous l’angle de la Loi. Celle-ci se traduit par la promulgation de règlements fixant des limites d’exposition ou des normes. Comme le rappelait en décembre 1997, B. Kouchner, secrétaire d’état à la santé et à l’action sociale « entre le drame et l’inaccessible risque zéro, il y a la place pour une politique déterminée et rigoureuse de réduction des risques sanitaires ». De ce constat, un concept nouveau est apparu, celui de la sécurité sanitaire développé par tous les acteurs de la santé. Un dispositif juridique de plus en plus élaboré répond à cette préoccupation. En créant l’Agence française de sécurité sanitaire des produits de santé, la loi relative au renforcement de la veille sanitaire et du contrôle de la sécurité sanitaire des produits destinés à l’homme conduit à une profonde réorganisation administrative en France. La loi du 1er juillet 1998 en créant une agence unique des produits de santé, une agence des produits alimentaires, un comité de gestion des crises et un institut de veille sanitaire, marque une étape importante dans la maîtrise des risques sanitaires par l’état. La maîtrise du risque zéro doit être recherchée par l’Etat, même si elle ne peut pas être pleinement garantie et le contrôle de l’application des dispositifs réglementaires incombe à l’administration. De plus, la loi met en place un dispositif de veille sanitaire et institue un système d’alerte. Mais si le choix est fait de placer la prévention au service de la promotion de la santé et du développement durable, alors, la prévention consiste également à susciter des actions pour informer et éduquer les populations exposées ou susceptibles de l’être afin de se diriger vers une « nouvelle gouvernance » où les décisions impliquent non seulement les pouvoirs en place, mais aussi l’ensemble des citoyens. (Projet de l’académie de Lille: « Des repères pour l’éducation à l’environnement » 1999-2003)

      

      

      

       1.4.2. Les normes dans le domaine Santé Environnement

      

       Comme nous l’avons vu précédemment dans le paragraphe consacré à l’acceptation du risque, il existe une composante normative dès lors que l’on se retourne vers un tiers pour prendre une décision ou si cette décision engage d’autres personnes ou des composantes de l’environnement. L’évaluation des risques incluant la quantification des incidences négatives et positives, le choix d’une stratégie pour traiter l’incertitude ainsi que la répartition de conséquences anticipées sur les différents groupes de la société conduit les experts à se positionner en terme d’acceptabilité et à la mise en application d’une politique concrète ( pour fixer les mesures de préventions et de limitations des conséquences) en matière de gestion des risques dans les domaines de la santé et de l’environnement. Mais ces évaluations ne sont pas des décisions purement scientifiques et impliquent la prise en compte des valeurs sociales et culturelles ainsi que des choix politiques et économiques des différents groupes concernés au sein de la société. « Ainsi, à côté des conventions de la sélection du savoir, les résultats de la recherche scientifique reflètent également les valeurs et les intérêts que la société tient pour importants. Ceux qui sont habilités à articuler ces valeurs et ces intérêts collectifs et à les transformer en décisions politiques touchant au risque sont désignés lors de la distribution du pouvoir politique et économique dans la société. » (Renn, 1995, p 82)

      

      

      

      Définition

      

      Les normes sont constituées de règles de droit dont le caractère normatif dépend de la compétence juridique de son auteur. Ce sont des outils juridiques pouvant prendre différentes formes: loi, décret, arrêté... dont chacune met en évidence la légitimité du statut du représentant de l’autorité juridique ainsi que sa place dans la hiérarchie :

       _ normes de l’Organisation Mondiale de la Santé : lignes directrices, recommandations,

       _ normes européennes : obligatoires, remplaçant et annulant toute norme nationale existante,

       _ normes nationales : obligatoires, traduction des normes communautaires.

      

      

      

      Typologie des normes

      

      Helga Scarwell, juriste (1998), dresse une typologie des normes selon leur dimension impérative, incitative ou descriptive. Elle distingue ainsi quatre types de normes dans la législation communautaire :

       _ des normes de qualité : déterminent par exemple le niveau maximum de pollution autorisé dans un secteur donné,

       _ des normes d’émissions : caractérisent la quantité ou la concentration de polluants émis par une source spécifique,

       _ des normes de procédés : concernent des processus déterminés à qui seront imposés certains moyens,

       _ des normes de produit : déterminant la nature et la concentration ou l’interdiction des différentes substances entrant dans la composition.

      

      

      

      

      

      

      Elaboration des normes et expertise

      

       Les normes sont établies en fonction des connaissances scientifiques et des techniques d’analyse d’un instant donné et sont le reflet d’un compromis négocié entre bien sûr les différents experts scientifiques mais aussi entre les «décideurs» politiques et économiques dans une perspective juridique. L’expert, au sein de l’entreprise ou de l’administration propose le niveau de risque qu’il considère comme acceptable. Le problème pour le décideur qui rassemble les avis et choisit, est celui de la prise en compte des opinions des citoyens en évitant à la fois le blocage et l’arbitraire. Le politique dont le rôle est de faire des choix, est soumis à de multiples pressions, de la grève des transporteurs au poids des pétroliers ou des constructeurs automobiles et à l’insatisfaction des usagers par exemple dans le cas de la taxation du diesel. L’opacité de la prise de décision, et l’absence de critères sur lesquels tous les acteurs pourraient fonder un consensus, peuvent provoquer une paralysie décisionnelle. Le blocage apparaît quand le décideur se contente de suivre le jugement social instinctif naturellement porté à l’aversion envers le risque. L’aversion se manifestant tout particulièrement vis à vis des risques nouveaux qu’ils soient de nature technologique ou biologique. Il peut s’agir d’ailleurs aussi bien de manifestations conservatrices d’arrière garde, que de craintes justifiées devant l’utilisation abusive des progrès scientifiques. L’opinion selon laquelle  «la gestion du risque ne doit pas se limiter à la minimalisation des risques ni à la maximalisation du bénéfice économique, mais qu’elle doit également faire entrer dans le calcul de risque les circonstances d’accompagnement qualitatives des risques,  s’est largement imposée. Un tel élargissement implique une modification des priorités lors du traitement des risques en même temps qu’une prise en compte simultanée de l’importance et du contexte du risque (surtout du degré de libre arbitre dans la prise de risque). » (Renn, 1995, p 83) Les institutions sont sollicitées par la demande sociale ou par des scientifiques, afin de prendre des décisions publiques. Le politique fait appel à des experts qui vont devoir se prononcer parfois au-delà de ce qu’ils maîtrisent. Dans ce cadre de décision, les discussions sur les incertitudes provoquent des malentendus entre les scientifiques et les décideurs car les premiers manquent de preuves et les seconds doivent prendre des positions tranchées. D’autre part, bien souvent les analyses techniques de risque ne sont que des points d’orientation dans le débat sur les risques et où ce sont les valeurs et intérêts sociaux qui déterminent l’issue de ces débats. Dans ce cas une représentation la plus fidèle possible des intérêts semble plus importante d’un point de vue normatif, que le choix de la meilleure expertise. Les procédés discursifs lors desquels toutes les personnes concernées (ou leurs représentants) par une décision participent à l’élaboration de cette décision semblent incontournables, pour la résolution de conflits. On peut supposer qu’« avec l’aide de la communication, des compromis peuvent être trouvés entre les oppositions d’intérêts et les conflits de valeurs, sans que l’une des parties ne soient exclue ou que ses valeurs ou intérêts ne soient pris en compte. » « La nécessité d’un tel dialogue devient cependant toujours plus évidente, ne serait-ce qu’en tant que modèle, pour trouver une voie d’entente praticable dans l’espace de tension qui existe entre l’analyse technique du risque et les débats symboliques sur le risque. Les conflits à propos des risques garderont leur acuité et leur amertume tant qu’on n’aura pas réussi à rassembler les différents acteurs et à permettre à chacun de faire entendre son point de vue. » (Renn, 1995, p100.101)

      

      

      

      

      L’expertise

      

       L’expertise consiste à émettre un avis (une opinion) ou une recommandation (avis sur ce qu’il convient de faire ou de ne pas faire) sur un problème posé, à partir de compétences et de connaissances acquises au cours du travail de recherche (inventaires, évaluation des connaissances disponibles, observations, inspections, essais, analyses...). Elle intervient en amont du processus de décision, mais peut aussi concerner un processus en cours ou un projet achevé. «Par définition, l’expert est celui qui, dans une situation d’incertitude relative, exprime un avis, une opinion pour tenter de dégager le vraisemblable dans une situation qui laisse la place à des interprétations contradictoires. C’est un exercice délicat et risqué qui requiert expérience, compétence et indépendance.» (Dab, in Apfelbaum, 1998,.p154)

      Afin de mener à bien l’évaluation des risques, les experts peuvent utiliser des outils appelés procédés formels. Ceux-ci peuvent aider à prendre des décisions cohérentes et consistantes dans le cadre d’un ensemble de règles donné ou d’une grille de valeurs préétablie. O. Renn (1995, p 96 à 100) recense 5 procédés formels qu’il définit ainsi :

      

       1. La comparaison de risques.

      

       Elle prend en compte le comportement observé comme mesure de l’acceptabilité du risque, en partant du postulat suivant: «Si une société a préalablement classé certains risques comme acceptables, il est raisonnable d’estimer que des options génératrices de risques plus faibles que ceux déjà acceptés pourront également être acceptés, dans la mesure ou la répartition des bénéfices et des risques est constante. » C’est un outil facilitant le dialogue avec les décideurs et le processus de communication avec l’opinion publique. Par contre, l’utilisation exclusive de cet outil dans le cas où l’estimation des dommages est incertaine semble ne pas être conseillée. De plus on ne peut tenir compte lors d’un processus décisionnel, uniquement des conséquences en terme de dommages mais aussi des conséquences en terme de bénéfices et d’autres dimensions comme les effets de la répartition des risques, le rendement économique de la réduction des risques...

      

      

       

       2. L’analyse coût-bénéfice

      

       Elle prend en compte l’efficacité d’une réduction de risque en comparant celle-ci à la dépense nécessaire en chiffrant en monnaie toutes les catégories de bénéfices et de coûts. Son intérêt réside dans le fait que l’évaluation des risques peut ainsi se faire d’après les préférences subjectives du marché donc d’après la loi de l’offre et de la demande en biens et en services. « La monétarisation reflétant directement le bénéfice social des conséquences évaluées... Toutefois, on éprouve des difficultés à tenir compte des effets externes et à évaluer les biens collectifs. Ici, il faut inclure indirectement des prix fictifs, qui simulent le prix sur le marché de ces effets externes et des biens collectifs. Bien que des procédés scientifiques aient été développés pour cela, l’amplitude des variations que l’on obtient est telle que, dans bien des cas, on ne parvient pas à des résultats probants. »

      

      

       3. L’analyse décisionnelle

      

       L’analyse formelle des décisions encore appelée logique des décisions est un instrument particulièrement utilisé en économie, en sociologie et en éthique philosophique. Elle a été étendue et affinée pour tenir compte des besoins liés aux questions des milieux scientifiques. Les procédés de l’analyse reposent sur l’évaluation subjective de chaque action. Les conséquences et leurs probabilités de se produire sont estimées puis traduites en valeur subjective de bénéfices. En fonction des préférences subjectives, un choix optimal est possible pour différentes options d’actions. De plus la transparence décisionnelle est améliorée si les dimensions, les évaluations et les pondérations des objectifs à atteindre sont publiés. Cette transparence du processus de décision permet aux décideurs ou aux personnes concernées par cette décision de remettre en question les objectifs ou les échelles d’évaluation. Ainsi, l’analyse décisionnelle convient particulièrement bien pour l’évaluation des risques car elle met clairement face à face les risques et les avantages et utilise les préférences des décideurs comme échelle de valeurs. Mais l’introduction de préférences subjectives impose que chaque pondération soit fondée de manière plausible et légitimée politiquement.

      

      

      

       4. Le procédé coûts-efficacité

      

       Ce procédé consiste à juger des mesures destinées à améliorer la sécurité par la quantité de ressources à caractère limité qui doivent être mises en oeuvre pour diminuer un risque donné. Le but est d’optimiser le coût global tout en visant le plus grand gain possible. Ceci ne fonctionne que si le procédé d’efficience des coûts est appliqué à une seule dimension de dommages ou de coûts, or, dans la réalité ce n’est pas le cas le plus fréquent. Il s’avère alors nécessaire de pondérer entre elles chacune des dimensions. Les risques qui subsistent après ce travail d’optimisation sont jugés acceptables sous réserve qu’ils soient jugés ainsi par l’un des procédés formels précédemment cités ou par des consultations politiques.

      

      

       5. Le procédé de la comptabilité environnementale et sociale.

      

       L’étude d’impact sur l’environnement est prescrite dans le droit américain de l’environnement pour toutes les actions dans lesquelles les autorités fédérales sont impliquées. Elle représente un recensement des conséquences pour la société et pour l’environnement de la mesure envisagée. Elle n’est pas un instrument décisionnel mais peut permettre de contester la décision prise dans la mesure où un protestataire peut démontrer que, lors du contrôle officiel, certaines conséquences graves pour l’environnement n’ont pas été prises en compte ou ont été calculées sur des bases fausses. C’est donc un moyen d’évaluation et de contrôle du respect des prescriptions en matière d’environnement et de publication des conséquences prévisibles pour l’environnement et pur la structure sociale de la région. L’analyse de la compatibilité sociale est elle par contre un instrument d’évaluation de l’acceptabilité d’une mesure. Les études peuvent consister par exemple en l’évaluation de plusieurs scénarios (proposés par des experts) par des « citoyens juges » choisis au hasard. L’analyse de l’impact social permet notamment d’attirer l’attention sur des atteintes à des normes et valeurs généralement acceptées. Mais elle ne permet pas de définir l’acceptabilité d’un risque.

      

      

      Les procédés formels d’évaluation des risques permettent donc d’aider à prendre des décisions cohérentes et argumentées dans un cadre normalisé ou d’une grille de valeurs préétablie. Ils sont une aide à la décision mais en aucun cas ne ils ne peuvent remplacer la décision elle-même. L’expert n’est là que pour informer le politique de la situation et il doit le faire sans arrières pensées personnelles. La séparation des fonctions d’expert, de décideur et de gestionnaire doivent nécessairement être respectées.

      

      

      

      Les instances d’expertise sur la sellette

      

       Les experts sont chargés de l’identification du danger et de l’évaluation du risque, alors que la gestion du risque incombe au politique. Dans la préparation des décisions publiques, la désignation des experts relève bien souvent d’un monopole des pouvoirs publics. Il apparaît légitime de s’interroger sur l’objectivité de ces choix. Ne doit-on faire appel et donc confiance qu’aux experts «résidant au sein de la légalité scientifique et se méfier des experts hors la loi»? Plusieurs auteurs dont Michel Prieur (A propos de la législation des pesticides en France, 1987) et D. Duclos (La Science absorbée par la commande administrative, in la terre outragée, 1992) cités par Helga Scarwell (1998, p16) déplorent le manque de transparence et d’uniformité des règles régissant le recours à l’expertise. L’attention et le crédit portés par les experts aux différents projets qui leur sont confiés dépendent de leurs orientations idéologiques et de leur appartenance à une «culture» plus ou moins différente de la leur. « Comme tous les membres de la société, les scientifiques sont soumis aux forces politiques et aux influences de leur entourage et de leur temps. Le danger existe donc qu’ils prennent leurs propres préférences pour étalon de jugement du risque (Linnerooth, 1983, cité par Renn, 1995, p81) « Dans la dernière édition des apports nutritionnels conseillés pour la population française, le sel est le seul nutriment pour lequel l’Agence française de sécurité sanitaire des aliments (Afssa) n’a formulé qu’un avis provisoire. L’agence, qui s’était autosaisie de la question, a depuis mis en place un groupe de travail « sel » ». Il « aura pour mission de définir les principaux vecteurs de sel dans notre alimentation; de voir dans quelle mesure il est envisageable de diminuer les apports en sel ; et de faire des recommandations en matière d’étiquetage. En revanche, il n’aura pas pour vocation de remettre en question la valeur journalière de 5 à 12 g/j de sel ingéré. La composition du groupe ne manquera pas de relancer la querelle sur l’indépendance des experts vis-à-vis d’une industrie agro-alimentaire accusée d’ajouter volontairement des quantités excessives de sel dans les aliments. » (Nowak, mai 2001, p59)

      

      

       Le manque d’indépendance et la multiplicité

      

       Certaines institutions sont à la fois juge et partie dans la mesure où elles ne font pas appel à des experts indépendants de l’institution mais à une «magistrature technologique» comme la surnomme Duclos, constituée de scientifiques publics certifiés semblant s’appuyer autant sur la culture administrative que sur la science. Néanmoins, il semble très réducteur de relier exclusivement fiabilité de l’expertise avec indépendance des experts. Il apparaît être plus pertinent de s’interroger sur la multiplicité des lieux d’expertise et sur la spécialisation des experts. Selon William Dab (Apfelbaum, 1998, p154) en France, les capacités d’expertise sont trop dispersées pour être efficaces : Conseil supérieur d’hygiène publique de France, Haut comité de la santé publique, Inspection générale des affaires sociales, Académie de médecine et des sciences, INSERM, CNRS, Comité de la prévention et de la précaution... De plus, aucune de ces instances n’a les moyens de fonctionner correctement c’est à dire de produire une expertise de qualité. «Les instances françaises d’expertises sont très nombreuses alors que le nombre d’experts est réduit: c’est une de nos curiosités hexagonales!» Pierre Louisot Professeur de biochimie et de biologie moléculaire à l’université de Lyon, président du Conseil supérieur d’hygiène publique de France, président de l’Institut français pour la nutrition. (Apfelbaum, 1995, p228) Le risque inhérent à de telles pratiques est, outre le manque de crédibilité lié à la dispersion des instances d’expertise, celui de la confiscation de la fonction d’expertise par le seul appareil administratif la réduisant ainsi au seul rôle de justification «scientifique» des décisions prises. Il est donc souhaitable pour la santé de la démocratie de mettre en place chaque fois que faire se peut un processus de confrontation contradictoire et publique pour aider les institutions à prendre des décisions juridiques.

      

      

      

       Promouvoir une expertise pluraliste ?

      

       Afin de rendre l’expertise contradictoire H. Scarwell propose d’introduire l’interdisciplinarité dans les centres de recherche scientifique: «A défaut de compréhension mutuelle, cette limite logique des savoirs, aurait au moins pour objectif d’inventorier les ignorances.». Pour O. Renn (1995, p101), l’instauration d’un dialogue entre disciplines scientifiques est une urgence. « Actuellement, on rencontre chez de nombreux représentants des sciences dites exactes de l’incompréhension et du rejet à l’encontre des sciences humaines. En même temps de nombreux sociologues considèrent de haut, avec compassion ou cynisme, la rationalité bornée des techniciens. Cette opposition est renforcée par le fait que, ... les tenants des sciences humaines ne peuvent pas apporter de solutions aux conflits, mais au mieux des propositions de procédure, alors que les ingénieurs ont quand même été formés pour trouver des solutions acceptables à des problèmes concrets. Beaucoup d’ingénieurs bien attentionnés souhaiteraient de la part des sociologues des données normatives sur ce qu’on peut considérer comme sûr pour pouvoir ensuite, dans le calme et à l’abri des conflits sociaux, traduire ces données en solutions techniques stables. Cette forme de division du travail de décision est cependant irréaliste. Les sociologues sont aussi peu en mesure de produire des schémas normatifs que les maçons ou les ménagères. En outre, les expertises techniques sont aussi (mais pas uniquement!) le reflet de conventions scientifiques et d’intérêts sociaux. La division du travail qui consista à demander aux sociologues d’établir des schémas normatifs et à demander ensuite aux ingénieurs de les mettre en pratique n’est ni raisonnable sur le plan empirique, ni justifiée sur le plan démocratique. Au lieu de cela, la division du travail devrait favoriser chacun des deux systèmes scientifiques là où il présente ses points forts et substituer l’un à l’autre dans le cas contraire. On demande de la modestie vis-à-vis de son propre savoir et de la disposition à apprendre par le savoir des autres. »

      

      

      

       Le manque de moyens

      

       L’éditorial de janvier 1999, de la revue scientifique La Recherche avait pour titre: « A quoi sert l’Académie des sciences? » Si l’on compare cette institution tricentenaire à ses équivalentes étrangères, l’Académie semble souffrir d’un manque de moyens tout autant sur le plan humain (le nombre de ses membres est de 140 alors que celui de la Royal Society britannique est de 1150) que sur le plan financier (le budget de l’académie est de 40 millions de francs). Résultat « pour le grand public, c’est majesté et poussière, poussière et majesté. Mis à part quelques offices publics et groupes de pression, qui attend quoi que se soit de l ’Académie des sciences? » or «l’omniprésence des questions posées par le progrès des sciences et des techniques réclame des instances d’examen et de conseil de haut niveau, capables de mobiliser rapidement des moyens conséquents, et de se faire écouter: ce dont nous manquons du moins en France. » Autre souci constaté par Pierre Louisot, la «disparition de l’espèce expert». «Les experts de qualité appartenant au secteur public sont en nombre restreint, et pour beaucoup d’entre eux, en fin de carrière. Cela se comprend très bien, car la capacité d’expertise d’un enseignant ou d’un chercheur n’a jamais été prise en considération - c’est le moins que l’on puisse dire - dans les instances officielles d’évaluation des universités, des hôpitaux et encore moins des organismes de recherche. La tonalité générale, par méconnaissance totale de l’impact national et international du problème est à la dévalorisation... Il faut y ajouter le fait que ces experts disposent de peu de moyens et que les charges inhérentes à leur fonction (secrétariat, équipement informatique, accès aux bases de données, à l’exception - et encore! - de leurs déplacements) sont intégralement supportées par l’organisme auquel ils appartiennent, ce qui ne les rend pas très populaires ! » H. Scarwell tient néanmoins à souligner l’existence en France d’un réel lieu d’expertise scientifique : l’office parlementaire des choix technologiques et que «finalement ce qui est en cause, c’est aussi l’absence de moyens financiers suffisants, qui entraîne des inégalités des capacités d’expertise.» (in Apfelbaum, 1998, p228,229).

      

      

      

      Les experts mis en cause

      

       C. Allegre, (1995) s’interroge sur l’expertise elle même et son degré d’honnêteté scientifique. Selon lui, parfois, l’expertise se donne l’apparence de parler au nom de la science, alors qu’en tout état de cause, elle a construit un argumentaire destiné à soutenir un point de vue qu’elle a reçu la charge de défendre. « Les débats actuels sur les O.G.M. comme sur la vache folle suggèrent que rien n’est plus dangereux que l’expert qui parle « au nom de la science » supposée neutre. Les scientifiques qui cachent leurs intérêts ou leurs opinions se mettent en position de manipuler l’opinion publique. Il n’y a pas un régime d’exception pour les scientifiques dans la cité. » (Bensaude-Vincent, sept. 2000, p86) Ainsi, constate William Dab (Apfelbaum, 1998, p154) «les experts sont de plus en plus souvent mis en cause, moins pour avoir nier l’existence de risques, que pour ne pas avoir su convaincre les autorités de prendre des mesures de précaution. Ils sont accusés de complicité de négligence.» La société actuelle a tendance à chercher non plus seulement des responsables mais des coupables qui de plus en plus souvent se trouvent être des scientifiques. Jean-Jacques Duby (Apfelbaum, 1998, p164) dénonce un arrêt rendu le 9 avril 1993 par le Conseil d’état selon lequel, «en situation de risque, une hypothèse non infirmée devrait être tenue provisoirement pour valide, même si elle n’est pas formellement démontrée» car dans ce cas, « ce n’est plus seulement l’erreur scientifique qui serait répréhensible, mais l’ignorance scientifique!». Compte tenu des risques judiciaires encourus, deux conséquences peuvent en découler. Soit, il pourrait y avoir une pénurie d’experts, refusant d’éclairer les débats de la société et les décisions des politiques. Soit, les experts tenteront de se prémunir de toute accusation de négligence en rendant des avis systématiquement alarmistes. Or, il ne faut pas perdre de vue que «  la compétence scientifique et l’expérience sont les préalables pour le jugement intersubjectif des hypothèses de travail; autrement dit, le contrôle critique nécessaire ne peut se situer qu’à l’intérieur du système scientifique. » (Häfele, 1990, cité par Renn, 1995, p81) En 1999, pour pallier la grande psychose qui s’est emparée de la France concernant la sécurité alimentaire, le Ministère de l’Agriculture et de la Pêche, le Secrétariat d’état à la Santé et à l’action sociale ainsi que le Secrétariat d’état aux PME, au Commerce et à l’Artisanat chargé de la Consommation ont mis en place une Agence Française de Sécurité Sanitaire des Aliments. Celle-ci est désormais chargée de veiller à la sécurité sanitaire et nutritionnelle des aliments consommés par les hommes et les animaux en partenariat avec l’Institut de Veille Sanitaire et l’Agence Française de Sécurité Sanitaire des Produits de Santé, dont les créations ont fait suite à la loi du 1er juillet 1998. L’agence est un soutien scientifique et technique (le Centre National d’Etudes Vétérinaires et Alimentaires a été intégré) pour les trois ministères, leur permettant de mieux élaborer, appliquer, évaluer les mesures prises ou à prendre dans les domaines concernés. Afin de répondre aux critiques précédemment formulées sur l’exercice de la fonction d’expertise, des modalités de fonctionnement propres à l’agence ont été élaborées. Chaque expertise est volontairement indépendante (200 à 250 experts extérieurs participent aux expertises), au conseil d’administration de l’AFFSA, de même qu’à certaines de ses commissions, siègent des consommateurs, une communication régulière est faite en direction du public (les avis même contradictoires sont publics), de plus une collaboration active, voire un partage des travaux d’étude et d’expertise avec les commissions de sécurité européennes est vivement souhaité. Ainsi, pour le groupe de travail « sel », chaque expert est tenu de signer une déclaration d’intérêts qui sera rendue publique et qui consignera ses liens avec l’industrie. De plus les spécialistes français de la question afficheront les opinions les plus contradictoires et le fait de les réunir dans un même groupe avec des industriels et des associations de consommateurs permettra peut-être de faire avancer le débat.

      

      

      Fruits d’un processus complexe d’élaboration, les normes sont susceptibles d’appropriation par le public et par là même, un système privilégié de sens et de diffusion de valeurs. Les normes sont des outils juridiques et indiquent la limite entre la légalité et l’illégalité, mais elles sont aussi souvent le reflet de revendications sociales. Une norme n’est donc pas le résultat d’un compromis scientifique et technique mais celui d’un assemblage d’exigences et de contraintes sociales, politiques économiques, scientifico-techniques et juridiques. Les personnes concernées par l’élaboration des normes sanitaires ne sont pas uniquement des experts mais aussi les industriels, les représentants des collectivités, les associations et les populations à risques c’est à dire aussi les demandeurs et les destinataires de ces normes. Ces acteurs ayant des intérêts divergents voire contradictoires, le processus d’élaboration de la norme suscite souvent des frustrations et des mécontentements car chacun d’eux à tendance à lire la norme selon ses propres intérêts.

      

      

      

      Le sens et la force

      

       Pour H. Scarwell (deuxième semestre 1998, p40), il est important de bien distinguer dans la norme, ce qui peut s’apprécier en terme de légalité ou d’inégalité et ce qui s’apprécie en terme de vérité ou de non vérité.

      

      Le vrai

      

       On doit distinguer la norme, du concept de seuil qui sous-entend un risque nul en deçà de cette limite. Mais le concept de seuil est un concept qui se fragilise car toute cause inscrivant son effet dans l’organisme, il y a toujours un risque. On admet ainsi qu’il n’y a pas de seuil absolu de pollution sans effet sur l’homme. Nous rejoignons ici le problème des faibles doses abordé précédemment et la norme dans ce cas est le reflet d’un consensus sur le risque acceptable. Lorsque ce seuil est démontré et reconnu comme tel par les experts, les normes sanitaires sont fixées en dessous prenant en compte un facteur d’incertitude. Compte tenu de l’évolution des techniques d’analyse et des connaissances la valeur du seuil doit être régulièrement revue (généralement à la baisse). Pourtant, on peut constater que des normes peuvent être modifiées même s’il n’y a pas de production de fait scientifique nouveau ou au contraire certaines normes restent intangibles alors que de nouveaux faits scientifiques sont avancés. «  Il faut des lois sur la pollution de l’air et de l’eau (la suppression progressive du plomb dans l’essence a eu un véritable effet bénéfique sur la santé publique), d’autant que la prévention du cancer n’est évidemment pas la seule raison d’être. Néanmoins, se fonder sur le pire des cas possibles dans l’estimation d’un risque constitue une décision d’ordre politique, et non scientifique, qui rend difficile une attribution efficace des moyens financiers. Les efforts de la réglementation visant à réduire l’exposition humaine aux produits chimiques synthétiques cancérogènes pour les rongeurs sont coûteux parce qu’ils cherchent à éliminer des concentration infimes, devenues mesurables grâce à l’amélioration des techniques. Ces efforts nous distraient d’une tâche autrement plus importante: améliorer la santé publique en perfectionnant notre connaissance des moyens de prévention du cancer (et notamment du rôle de l’alimentation), en faisant prendre conscience aux gens de l’influence du mode de vie sur la santé, et en les aidant à améliorer le leur. » (Ames, Swirskygold, oct. 1999, p53) Cette part d’arbitraire fait dire à H.Scawell: «Tout se passe comme si l’élaboration des normes avait pour premier objet de rassurer plutôt que de prévenir les dangers et les nuisances de l’environnement. Les règles ainsi élaborées s’appuieraient-elles sur l’appréciation de données scientifiques dont l’exactitude importerait peu, pourvu qu’elles soient reconnues comme normes à un moment donné.» (Deuxième semestre 1998, p18) Les normes sanitaires sont généralement globales , applicables à tous et ainsi ne tiennent pas compte de la diversité des individus face au maintien de la santé. «D’autre part, les normes sont déterminées pour un agent considéré seul. Or, la potentialisation des facteurs est un des points cruciaux des problèmes de pollution. De même, les effets cumulatifs d’un même agent doivent être pris en compte pour approcher la réalité de l’exposition humaine.» (Deoux, 1993, p503)

      

      

       Le licite

      

       La fixation de normes n’a d’intérêt que si elles sont respectées, si l’autorité compétente se contente de constater des dépassements ou le non respect des prescriptions techniques alors le dispositif mis en place est inefficace. C’est ainsi que la multiplicité des mesures transitoires et les dérogations accordées portent atteinte au principe d’égalité de tous devant la loi. Prévenir c’est normaliser mais aussi contrôler et s’il le faut sanctionner. C’est le rôle dévolu aux représentants de l’état ; services vétérinaires départementaux pour la filière viande et la restauration collective ou les directions régionales de l’environnement pour les effluents industriels par exemple.

      

      

      

      

      

      Efficacité des normes

      

       Comme le souligne H. Scarwell (1998, p40) : «pour saisir la norme, son destinataire doit se représenter à la fois l’objectif à atteindre et une stratégie des moyens utiles pour y parvenir, ce qui n’est pas toujours lisible en raison des contradictions inhérentes à certaines normes.» Dans le cas où l’implication de l’exposition domestique ou environnementale dans la survenue d’une pathologie demeure encore du domaine de l’hypothèse, le problème doit être traité dans le cadre d’une analyse coût-bénéfice, évaluant l’impact de mesures coûteuses pour la société et les particuliers, les conséquences éventuellement désastreuses de ces mesures à l’échelle familiale et locale et les améliorations incertaines pour la santé publique. «... L’information est l’élément clé qui conditionne la juste évaluation des dangers par le public, mais aussi par les décideurs. L’information et son revers la désinformation, car si une information exacte, complète, accessible fait partie des conditions d’exercice du libre marché et tout simplement de la démocratie, une information erronée, tronquée ou présentée d’une manière trompeuse peut être utilisée pour servir des intérêts économiques ou politiques..... Dans ce grand jeu de l’information et de la désinformation, on a ainsi campé les quatre acteurs : les scientifiques, les médias, les décideurs et le public.» (Duby, Conseiller scientifique de l’Institut national de l’environnement industriel et des risques, in Apfelbaum, 1998, p161) Ainsi, la création d’instances moins dépendantes des missions administratives s’impose de manière à pouvoir anticiper l’expertise, informer le plus complètement possible le citoyen tout au long du processus de recherche mais aussi de déterminer la responsabilité des uns et des autres.

      

      

      

      

      

       1.4.3. L’information: faire connaître le risque

      

      

       «L’information sur les risques sanitaires est de plus en plus reconnue comme un droit. Plusieurs dispositifs législatifs et réglementaires récents ont traduit cette exigence sociale.» (Dab, in Apfelbaum, 1998, p149) L’article 4 de la Loi du 30 décembre 1996 sur l’air et l’utilisation rationnelle de l’énergie énonce : « Le droit à l’information sur la qualité de l’air et ses effets sur la santé et l’environnement est reconnu à chacun sur l’ensemble du territoire. L’état est le garant de l’exercice de ce droit, de la fiabilité de l’information et de sa diffusion. » Mais l’information en matière de santé et d’environnement se heurte à de nombreux obstacles : difficultés de perception des risques et parfois un niveau de maîtrise des connaissances scientifiques et techniques insuffisant pour appréhender rationnellement les données. La plupart des polluants environnementaux appartiennent au domaine de l’invisible et de l’insensible. Ils ne sont plus perceptibles par les sens, nous ne voyons pas les rayonnements émis par le radon dans certaines habitations et ne sentons pas les résidus de pesticides présents dans l’eau d’alimentation. Présents dans l’ensemble de la biosphère, ils perturbent l’ensemble des milieux de vie naturels (l’atmosphère, la lithosphère, l’hydrosphère) mais aussi anthropiques (les habitations et les locaux collectifs) et ont des effets sur les fonctions essentielles de l’homme (la nutrition et la respiration). Ils nécessitent un travail d’approche et de compréhension car ils n’appartiennent pas au vocabulaire usuel du citoyen-consommateur tout en faisant partie de son quotidien. Federico Mayor dans sa chronique dans le Courrier de l’UNESCO (avril 1997), n’hésite pas à parler d’illettrisme scientifique. « Quant aux électeurs, ils sont incapables de prendre des décisions rationnelles sur des questions qui exigent d’avoir un minimum de connaissances scientifiques, -le plus souvent pour la simple raison qu’on ne les leur a pas apprises... Nous vivons dans une société tributaire de la science et de la technologie. Et nous n’entendons ni l’une ni l’autre. Selon un sondage destiné à tester les connaissances scientifiques de base, un tiers des Britanniques et 43 % des Américains savent que les électrons sont plus petits que les atomes. Près d’un tiers des premiers et un quart des seconds croient que les antibiotiques détruisent non seulement les bactéries mais aussi les virus. Je ne cherche pas ici à critiquer tel ou tel pays. Rien n’autorise à penser que ces résultats auraient été différents si ces sondages avaient eu lieu ailleurs.... Nous profitons des avantages de la technique sans rien savoir la plupart du temps, de ses mécanismes. ... Rares sont les personnes qui ont une idée claire, ou se soucient vraiment de ce qui se passe sous le capot de leur voiture, ou qui cherchent à comprendre comment fonctionnent les lignes à haute tension qui amènent chez elles l’électricité. A leurs yeux cela tient de la magie. » Cette absence ou difficulté de perception des risques soulignée dans un précédent paragraphe, permet en même temps de les exploiter à des fins de manipulations de l’opinion publique. Selon Didier Torny, membre d’un groupe de sociologie politique et morale à l’école des hautes études en sciences sociales, on assiste depuis quelques années à la multiplication de ce qu’il appelle des alertes, que ce soit dans les domaines sanitaire, alimentaire ou environnemental. «Des personnes ou des collectifs annoncent publiquement l’existence de risques ou, du moins, rendent publique une inquiétude par rapport à certains éléments du monde (air, eau, aliments, médicaments..).» (Apfelbaum, 1998, p259) Pour certains médias catastrophistes, le danger devient pathologie induite, ne précisant pas que la possibilité de pathologie liée à l’exposition à certaines substances dépend des doses et des habitudes de vie (par exemple : la quantité d’aliments contaminés consommés par jour). Comme l’évoquait Denis Dangaix dans un article de « La santé de l’homme » de décembre 1998 intitulé : «L’information sur l’environnement est-elle éducative ? », l’information dans le domaine Santé Environnement répond principalement à l’effet médiatique dans le but d’attirer le public se contentant souvent de relater simplement les événements à la manière de faits divers qui sont d’autant plus intéressants quand ils deviennent feuilletons. Au printemps 1998 les médias s’emparent à nouveau de la polémique à propos de la vaccination contre l’hépatite B. « Sont-ils soucieux d’alerter la population sur ce nouveau danger, ou sont-ils attirés par l’audience que suscite invariablement ce type de polémique ? La formation des journalistes étant rarement suffisante pour leur permettre d’aborder des problèmes aussi complexes, ils restent dépendant des interviews, plus volontiers accordées par les protagonistes de la polémique que par les représentants des laboratoires pharmaceutiques ou des autorités. Comme toujours la campagne d’information prend rapidement une allure partisane, adoptant une mise en scène de type «David contre Goliath » ... Quelles sont les réponses données à cette légitime inquiétude ? Les patients se heurtent à des médecins réticents à reconnaître les liens entre la vaccination et les troubles présentés, puisque ceux-ci n’ont pas été répertoriés en tant qu’effets secondaires reconnus. Les déclarations des firmes sont évidemment perçues comme visant à nier le problème, pour cause d’intérêts économiques. Et les autorités de santé sont accusées de confondre santé publique et bénéfice public. La guerre des chiffres est lancée. On se dispute sur le nombre d’hépatites que la vaccination cherche à prévenir. Il aurait été surévalué en 1994. On se dispute sur le nombre d’accidents vaccinaux éventuels. Ceux qui sont signalés à l’Agence du médicament chargée de la pharmacovigilance et aux laboratoires pharmaceutiques restent sans commune mesure avec le nombre d’accidents recensés par le REVAHB (Association des victimes du vaccin contre l’hépatite B). » (Siegrist, mars 2000, p81,82) L’information prodiguée quotidiennement sur un mode simpliste, à force de ne pas vouloir expliquer, crée contresens et interprétations parfois douteux. Denis Dangaix prend l’exemple de la pollution de l’air, sujet qui toutes presses confondues est régulièrement en tête du hit-parade des titres. Il a relevé pour l’année 1997, pas moins d’une cinquantaine de titres à la Une, au générique des télés sur ce thème. Pourtant des enquêtes du ministère de l’Environnement démontrent que le citoyen-consommateur ne connaît toujours pas l’échelle de mesures et les valeurs inhérentes pour chaque polluant ni ce que signifie le réseau d’alerte et les comportements qui en dépendent. L’information du citoyen relative à la mise en place des jours de circulation alternée à Paris s’est focalisée sur «comment se déplacer». Il y a donc eu transfert de l’information pour un meilleur civisme urbain vers une information du conducteur afin de limiter les contraintes imposées. De même, il ne se passe pas une semaine sans qu’un média ne dénonce de la dioxine dans le Coca-Cola, du plomb dans l’eau d’alimentation, des tomates transgéniques, des antibiotiques dans la viande de boucherie, des salmonelles dans les oeufs... créant ainsi des paniques périodiques. Ces «lanceurs d’alerte» se situant à l’intersection des deux formes d’expression que constituent controverse scientifique et critique sociale. De nombreux articles ces dernières années ont eut pour titre: « la crise alimentaire ». Or, en réalité, les crises sont de plus en plus rares si on les place dans un contexte historique d’évolution des sciences et des technologies. Ce qui existe en revanche, c’est une illusion de crise alimentaire dans l’esprit du public, une représentation générée par les médias qui amplifient de manière excessive les faits. En effet en terme de morbidité cette crise n’a pas de réalité. Il faut plutôt parler d’une crise de confiance du consommateur vis à vis du monde mystérieux de l’industrie agro-alimentaire. A force de rendre secret les processus de fabrication, les industriels ont perdu toute crédibilité auprès des consommateurs et les médias ne font que refléter une société de consommation qui doute. Le consommateur a besoin de réidentifier ce qu’il mange afin de reprendre confiance. La mise en place de la démarche HACCP et la certification sont ainsi, des gages des efforts entrepris pour garantir aux consommateurs une certaine qualité des produits élaborés ou transformés. Servant d’amplificateur, les médias ont le pouvoir de faire, de défaire et de reconstruire les catastrophes, de définir l’incertitude, d’interpréter à leur manière les situations et de présenter la vérité. Le mensuel La Recherche de juin 2000 dénonçait un article paru dans Le Monde du 6 avril 2000 sous le titre: « La commission d’enquête sur la sécurité alimentaire réclame l’interdiction des OGM ». Le lecteur pouvait y lire: « Dans l’attente des futurs résultats qui pourront être obtenus en matière de sécurité des consommateurs, la commission estime prématurée la mise sur le marché de nouveaux produits issus d’organismes génétiquement modifiés » et « demande que, faute d’éléments susceptibles d’établir pour l’instant son innocuité, leur commercialisation ou leur mise en circulation sous quelque forme que ce soit, soit clairement interdite. »  Or le texte du rapport est le suivant:  « A l’issue de ses investigations, la commission estime qu’en matière de biotechnologies, la recherche scientifique doit poursuivre son oeuvre et s’employer à offrir les garanties indispensables qu’attendent les consommateurs. Dans cette attente, elle estime prématurée la mise sur le marché de nouveaux produits issus d’OGM et considère que toute denrée contenant à l’heure actuelle des indices d’OGM doit bénéficier d’un étiquetage qui le mentionne expressément ». Pas question d’ « interdiction ». Autre exemple d’interprétation journalistique lui aussi relevé dans le billet du mensuel La Recherche, d’un fait scientifique relatif au réchauffement planétaire. « Le fait scientifique est celui sur lequel les spécialistes du domaine, même s’il leur en coûte, accordent leur jugement - serait-il suspensif. C’est dans cet esprit - scientifique donc - qu’est rédigé un rapport publié en janvier par l’Académie américaine des sciences, intitulé de manière intrigante: « Réconcilier les observations sur le changement global de température. » Pourquoi « réconcilier »? Parce que les données sont contradictoires, mais aussi parce que la contradiction dans les données entretient des interprétations contradictoires. Conclusion du rapport ? Les scientifiques ont accordé leur jugement - ils se sont réconciliés - sur le fait qu’en l’état actuel des connaissances, les données contradictoires ne sont pas réconciliables.... Surtout, tous les modèles, y compris les plus récents, qui tiennent compte de l’effet des aérosols, des volcans, de la répartition de l’ozone, prévoient que la température de la basse et de la moyenne atmosphère, aurait dû croître au moins autant et plutôt davantage que la température au sol : or, c’est le contraire qui est observé. Pourquoi ? « Les sceptiques du réchauffement global sont désormais hors-jeu », titrait un article journalistique de la revue Nature en commentant ce rapport. Nous touchons là du doigt un autre phénomène : même quand les scientifiques font un gros effort pour réconcilier leurs points de vue afin de désigner un fait, les journalistes introduisent une couche supplémentaire d’interprétations. Or, par les temps qui courent, les interprétations produites par les journalistes ont souvent plus d’impact que celles de scientifiques. A quand la mise en place de procédures de réconciliation pour traiter des « faits » journalistiques ? » (Postel-Vinay, mars 2000, p114)

      Dans le troisième exemple que nous allons prendre, le problème n’est pas lié à une interprétation journalistique mais à un manque de continuité dans l’information médiatique. En janvier 2001 l’uranium appauvri « avait occupé le centre d’une activité médiatique aussi intense qu’éphémère. » Les avions de l’OTAN, pour combattre les chars ennemis en Bosnie et au Kosovo ont tiré un grand nombre de munitions intégrant dans leur fabrication de l’uranium appauvri « Une question légitime s’est donc posée: la présence d’uranium appauvri dans l’environnement des Balkans aurait-elle engendré les pathologies graves, notamment les leucémies, qui ont été constatées chez des soldats et des civils? » Les groupes d’experts appartenant à deux organismes internationaux, l’Union Européenne et le P.N.U.E. ont remis leurs rapports respectifs le 6 et le 13 mars 2001. « En matière d’évaluation des risques sanitaires et environnementaux, il est rare de lire des propos aussi peu dénués d’ambiguïté. » Ils affirment l’un et l’autre que « l’uranium appauvri n’est certainement pas le principal problème environnemental du Kosovo pour le moment » et que « l’exposition à l’uranium appauvri n’a pu engendrer d’effets détectables sur la santé (par exemple, des cancers). »... De telles affirmations n’atténueront en rien les souffrances des malades qui avaient cru identifier le responsable de leurs maux, mais, comme l’a déclaré Klaus Tôpfer, le directeur du P.N.U.E.: « Ces résultats scientifiques devraient soulager l’anxiété actuelle des populations vivant ou travaillant au Kosovo. » Or, force est de constater qu’en France, les médias n’ont guère donné d’écho à ces rapports. Pour les proches des civils et des militaires qui, aujourd’hui encore, oeuvrent dans les Balkans, la dissipation de leur inquiétude nécessite accès à Internet et... la maîtrise de la langue anglaise : les rapports sont disponibles en intégralité sur les sites de l’U.E. et du P.N.U.E.. » (Chevalier, mai 2001, p61)

      Dans un domaine où les questions sont plus nombreuses que les réponses, l’information se doit d’être prudente et rigoureuse. Ainsi, le consommateur «peut en toute bonne foi, se laisser bercer par des illusions santé qui mettent en danger, sur le long terme, un équilibre fragile, lequel dépend de facteurs génétiques encore très mal connus, de l’équipement enzymatique et de son fonctionnement, de l’âge, des habitudes familiales et de l’éducation, du mode de vie à la ville ou à la campagne, des conditions de travail, des disponibilités financières, des habitudes de loisirs, et probablement de bien d’autres choses encore !» et Pierre Louisot (Apfelbaum, 1998, p230) de citer «les gavages en vitamines et minéraux de toutes sortes, éphémères anti-radiculaires dont on ne sait strictement rien, ni sur le court terme et encore moins sur le long terme, pas plus en cancérologie que dans le domaine cardio-vasculaire.» D’un autre côté, l’information peut entraîner des effets indésirables et, notamment, créer ou accroître une sourde angoisse que le progrès technologique a de tout temps suscitée. Ainsi, dans les pays ou l’information sur les conséquences de la catastrophe de Tchernobyl a été largement diffusée, ne dit-on pas qu’elle a eu comme effet de provoquer une épidémie d’interruptions volontaires de grossesse ? » ( Dab, in Apfelbaum, 1998, p150) Selon Jean-Jacques Duby (Apfelbaum, 1998, p164) les conséquences d’une information tronquée peuvent être des modifications d’attitudes et de comportements sociaux mais aussi des mesures gouvernementales d’ordre législatif ou réglementaire aboutissant parfois à des «allocations suboptimales des dépenses de la collectivité : les sommes consacrées à la réduction des nitrates dans les eaux de consommation ou de dioxines dans les effluents d’incinérateurs le seraient plus utilement et plus efficacement à la prévention de risques objectivement plus réels, même s’ils sont subjectivement moins perçus. C’est en ce sens que la désinformation est nuisible pour la société et qu’il importe de la réduire.» Ainsi concernant la maladie de la vache folle ou Encéphalite Spongiforme Bovine, le professeur Jacques Rozier a déclaré: « Le danger n’est plus la transmission de l’ESB à l’homme mais la panique engendrée par de fausses informations. L’agent responsable est d’une façon générale l’information de la population par les divers médias. » Afin de lutter contre ce danger, J. Rozier propose plusieurs voies dont la lutte « contre l’angoisse en agissant sur les médias et cela de plusieurs façons : en ne délivrant que des informations réelles et facilement compréhensibles par le grand public. Ne pas confondre incertitude, hypothèse et réalité. Les connaissances des gens sont généralement d’un niveau assez bas dans le domaine de la santé. Il est facile de les abuser et de déclencher des réactions inattendues et excessives. Cela a été le cas pour la fièvre aphteuse qui s’est répandue en G.B. comme une traînée de poudre et qui a éclaboussé certains pays européens. Les gens ont eu peur de la transmission à l’homme et il a fallu des annonces répétées pour rassurer... à moitié car cela venait renforcer l’idée que l’élevage est pourri ! » (Rozier, juin juillet 2001, p7)

      

      «Comme tout outil de santé publique, l’information sanitaire comporte des bénéfices et des inconvénients. On attend idéalement de l’information des citoyens qu’elle les responsabilise, qu’elle en fasse des acteurs éclairés, qu’elle leur donne des éléments de choix dont aucune alternative n’est dépourvue de risques. C’est le fondement de la pratique du «consentement éclairé», un des piliers du contrat entre le malade et son médecin. » (Dab, in Apfelbaum, 1998, p150) « Le fossé entre ce que savent les scientifiques et ce que comprend le public est l’un des plus grands obstacles au développement d’une science clairvoyante et d’une politique publique. » (Mayor, avril 1997) C’est pourquoi une information objective et indépendante du pouvoir politique et économique est nécessaire afin que chaque citoyen puisse mettre en oeuvre une conduite adaptée face au risque. Ainsi, l’ampleur médiatique des incidents alimentaires et la méfiance qui va de pair a fait l’objet de débats lors de forums régionaux organisés par le ministère de l’Agriculture et de la Pêche au premier semestre 2000. Echanger pour mieux comprendre est le postulat développé par le ministère. Consommateurs, opérateurs de la filière agro-alimentaire et les pouvoirs publics seront invités à échanger avec des experts sur les risques admis et perçus et leur influence sur l’alimentation ainsi que sur le principe de précaution dans le but d’amener les citoyens à participer pleinement eu débat social. Car une information la plus honnête soit-elle, divulguée à des individus qui ne peuvent l’entendre leur est inutile. «Une partie du débat social sur les organismes génétiquement modifiés porte sur l’obligation d’étiquetage, les opposants comptant bien sur l’effet repoussoir de cette information pour conduire à un fiasco commercial. Les grands distributeurs l’ont bien compris lorsqu’ils exigent de leurs fournisseurs des produits «non OGM», ce qui suppose une traçabilité quasi impossible à garantir.

      Mais quel est le contenu informationnel réel, en termes de santé des consommateurs, d’une étiquette portant la mention «contient des produits issus d’OGM» ? (Dab, in Apfelbaum, 1998, p149) « Il est certes impossible de faire en sorte que chacun comprenne tous les domaines importants et controversés de la science et des techniques actuelles. Les scientifiques eux-mêmes ne maîtrisent pas tout. Un chercheur en biologie cellulaire a du mal à comprendre la physique des particules ; un métallurgiste n’aura qu’une vague idée de la génétique; un nombre limité de personnes ont accès à l’univers fabuleux des mathématiques pures. Mais ce n’est pas le fait de connaître d’autres domaines que le leur qui distingue les scientifiques du commun des mortels, c’est la conviction que, s’ils le veulent, ils sont en mesure de comprendre ces domaines. C’est cette confiance qui, en général fait défaut aux non-scientifiques. Et c’est, précisément cette confiance que nous devons tenter de généraliser. Lorsque les idées scientifiques répondent aux préoccupations du public et l’intéressent, celui-ci se révèle remarquablement apte à en tirer parti. Prenons un exemple intéressant : les conférences annuelles du SIDA. Ces rencontres, destinées à débattre entre professionnels des avancées de la recherche, attirent aussi de nombreuses personnes séropositives ou d’autres attentives à la souffrance des gens atteints de cette maladie. Ce ne sont pas des scientifiques, mais comme ce sujet les touche de très près, ces gens sont vite avertis des dernières recherches en matière de virologie et d’immunologie deux disciplines scientifiques parmi les plus ardues. Ces militants de la lutte anti-SIDA compliquent beaucoup la vie des scientifiques, en exigeant, de façon parfois irréaliste, des progrès plus rapides. Ils n’en stimulent pas moins l’ensemble des chercheurs et contribuent à ce que la recherche s’attaque aux vrais problèmes. » (Mayor, avril 1997) La Commission européenne a mis en chantier un vaste plan Sciences et société qui comprend 36 actions afin de réconcilier les citoyens européens avec les sciences. Parmi les thèmes abordés on trouve notamment : l’éthique de la recherche scientifique, le rôle des experts dans le système démocratique et la culture scientifique dans le grand public. « La Commission envisage, par exemple, d’appuyer la création d’une véritable agence de presse scientifique européenne ou d’une chaîne de télévision consacrées aux sciences. Autre exemple : Bruxelles veut apporter son soutien au développement des « boutiques de la science », dans lesquelles des chercheurs se mettent à la disposition de la population pour informer, répondre aux questions... » (Louis, janvier 2002, p63) « Il faut éviter deux pièges : d’abord, opposer la « rationalité » des experts à « l’irrationalité » des consommateurs, alors qu’il s’agit de deux types de rationalités différentes dont il faut comprendre les logiques et ensuite oublier que l’information n’est qu’un élément parmi d’autres influant sur le comportement, comme l’est l’environnement social. » (Le dossier encart de notre alimentation, janvier 2001) L’information se doit d’être régulière et organisée, diffusée par différents canaux et relais entre les experts, les décideurs et les citoyens.

      Mais, l’information à elle seule, même la plus complète c’est à dire celle qui donne matière à la réflexion, à la confrontation et à l’action, n’est en aucun cas suffisante pour modifier des comportements en matière de santé et d’environnement notamment parce qu’elle ne permet pas de donner au citoyen les moyens de prendre son temps. C’est la 1ère étape de la prévention et elle doit être complétée par une éducation dont la finalité sera de faciliter la communication d’informations permettant à chacun de se forger sa propre opinion et favoriser le développement du sens critique vis-à-vis des multiples informations véhiculées par les médias afin de prendre ses responsabilités et ses décisions en matière d’éco. et de bio. citoyenneté. Ainsi il est difficile de ne pas déplorer comme le fait F. Louis que le plan d’action de la Commission Européenne pour réconcilier la Science et le citoyen « reste muet sur un chapitre essentiel : l’enseignement. Faute de compétences législatives en la matière, l’Union est en effet réduite à animer des groupes de réflexion avec les ministres de l’Enseignement des quinze Etats membres. » (Louis, janvier 2002, p63)

       

      Néanmoins, lors de la clôture des Etats généraux de l’alimentation le 13 décembre 2000 à Paris, la Secrétaire d’Etat à la Santé et aux Handicapés a déclaré : «  Après des décennies de carences, la nutrition est devenue un facteur déterminant de santé. De nombreux travaux ont mis en évidence les effets néfastes d’une alimentation déséquilibrée, en particulier le rapport du Haut comité de santé publique de juin 2000 : les maladies cardio-vasculaires constituent aujourd’hui la première cause de mortalité, le nombre de cancers digestifs s’accroît régulièrement, l’obésité touche 7 à 10 % des adultes et 10 à 12 % des enfants de 5 à 12 ans, l’ostéoporose est due à un apport calcique insuffisant, le diabète et l’excès de cholestérol progressent, etc. Trop d’alcool, de sucres et de graisses sont consommées tandis que les vitamines, les minéraux, les féculents et le pain ne le sont pas suffisamment, excès et carences qui sont sources d’inégalités au sein de la population. Il faut donner aux Français la possibilité de construire mieux leur alimentation, grâce à une information claire, validée, cohérente et accessible. En même temps, le choix alimentaire individuel doit rester libre, culturel et identitaire. » Considérant qu’il est indispensable de développer l’esprit critique des enfants face à une offre alimentaire abondante, Dominique Gillot a proposé de s’appuyer sur l’école et a précisé qu’un travail était envisagé avec le Ministre de l’Education Nationale afin de définir des programmes pédagogiques, dès l’école maternelle. (Dossier encart de notre alimentation, janvier 2001)

      

      

      L’éducation à la santé et l’éducation à l’environnement ont un objectif commun : l’éducation aux conduites à risques. Celle-ci s’inscrit dans le champ de la prévention lorsque les risques sont bien identifiés et font ainsi l’objet d’une connaissance rationnelle. Mais le SIDA, l’amiante, la maladie de Creutzfeld Jakob, les produits phytosanitaires ou encore les problèmes respiratoires liés à la pollution constituent des menaces graves, justifiant une conduite de précaution en raison notamment, du risque incertain des faibles doses.

      Ainsi, par exemple dans le cas de l’amiante, les ouvriers du bâtiment, de la rénovation de l’entretien et de la maintenance sont exposés à un risque connu mais diffus. En outre cette population active semble être moins informée que les anciens travailleurs de la manufacture de l’amiante et des flocages, les occupants des locaux exposés ou encore que les personnels des entreprises de déflocage. Ainsi, c’est ce groupe professionnel qui rassemble maintenant la majorité des pathologies tumorales produites par l’amiante. «En matière de santé, la rationalité doit être doublée de la prudence, au risque de pécher par excès de précaution, en faisant bénéficier du doute scientifique les individus plutôt qu’un facteur suspect de l’environnement.» (Deoux, 1993 p509)

      

      


1.5. De la prévention à la précaution: vers une démocratisation des processus de décision

      

      

      

       1.5.1 Le principe de précaution

      

       La précaution pourra améliorer la gestion préventive des risques qui font l’objet d’une représentation scientifique suffisante mais elle permet surtout aux experts de formuler des hypothèses sur de nouvelles possibilités incertaines, sur des éventualités que l’on ne peut écarter de manière à adopter de nouvelles réglementations et de modifier la balance coûts/bénéfices d’options technologiques porteuses de risques présumés pour la santé et l’environnement.

      

      

      Premiers éléments de définition

      

      Selon O. Godard, économiste, directeur de recherche au CNRS, le principe de précaution n’est pas une règle de l’abstention mais il appelle à une transformation des conditions de l’agir face à des risques dont la nature et l’ampleur sont encore incertains. Il s’applique :

       _ aux équilibres écologiques et à la diversité du vivant,

       _ au lien social et à l’accomplissement des personnes,

       _ au dynamisme technologique et à l’expansion des marchés,

       _ à la grandeur de la nation.

      Face à des risques potentiels, jugés graves et irréversibles, l’absence de certitude scientifique ne justifie pas que l’on ne prenne pas des mesures de sécurité collective. Le principe de précaution s’applique au champ des erreurs collectives, impliquant le risque d’un dommage collectif, sur l’évaluation duquel, à un moment donné la science se sent désarmée ou non consensuelle. La notion de précaution est équivalente à celle de l’incertitude, «témoignant d’un rapport profondément bouleversé à une science qu’on interroge moins pour les savoirs qu’elle propose que pour les doutes qu’elle insinue. La précaution a pour objectif de maintenir au plus bas les expositions, quels que soient les effets potentiels ou supposés. Le SIDA, l’hépatite C, l’amiante, la maladie de Creutzfeld Jakob, les produits phytosanitaires ou encore les problèmes respiratoires liés à la pollution de l’air peuvent-être considéré comme des menaces graves justifiant une conduite de précaution.  En effet, ces maladies ou celles engendrées par l’usage des produits phytosanitaires ou de l’amiante ont en commun 4 attributs :

       _ un temps d’incubation ou de latence très long,

       _ le taux de passage à la maladie est inconnu,

       _ certains individus y sont plus sensibles que d’autres,

       _ il n’existe pas de moyens véritablement efficaces pour se protéger ni de traitements curatifs.

      Pour chacun de ces exemples, à un moment donné des précautions n’ont pas été (ne sont pas) prises suffisamment rapidement pour réduire le risque de catastrophe.

      

      

      

      

      Genèse: modification des valeurs de civilisation et émergence d’une pression citoyenne

      

       Comme nous l’avons vu précédemment au cours du 20ème siècle le développement de nouvelles sciences comme la statistique a permis d’envisager une maîtrise sociale des risques individuels par l’appareil d’état. C’est l’état «providence» qui s’est substitué à une logique de prévoyance individuelle et qui, en institutionnalisant la prise en charge des risques, l’a extériorisée et bureaucratisée. Depuis le début de l’industrialisation, la modernisation de la société s’est réalisée grâce à des utilisations techniques et a été poussée essentiellement par deux idéaux : le rationalisme et l’individualisme. « Cette modernisation promettait le retour au paradis et une transformation du royaume de la nécessité en un royaume de liberté. Les deux formes économiques de l’occident, le marché à orientation capitaliste d’une part et la conduite socialiste-centriste de l’économie d’autre part, sont supportées par l’idée force selon laquelle l’organisation rationnelle de la production et le développement systématique des forces de production entraînent pour tous une augmentation constante du niveau de vie....

      De plus dès les années 1950, les compagnies d’assurances ont commencé à proposer des contrats pour couvrir les effets d’éventuelles catastrophes. L’assurance apparaissant être le moyen permettant de contrôler le futur en production. Aux yeux des modernes, la technique n’est pas seulement un instrument d’amélioration des conditions de vie, elle est également le symbole de la puissance créatrice de l’homme et celui de sa libération par rapport à la nature et à la métaphysique. La technique fait de l’homme un créateur et le libère des griffes de son environnement. Celui qui s’oppose au progrès de la technique ne peut vouloir le bien-être de l’humanité. Les adversaires de la technique sont soit des bourgeois aisés et aveugles qui ne voient pas (ou ne veulent pas voir) la relation qui existe entre leur style de vie et les conditions nécessaires pour rendre ce style de vie possible, soit des idéologues et des fondamentalistes rétrogrades, qui tiennent à préserver l’humanité des fruits de la connaissance. » (Renn, 1995, p92)  Au cours des années 1980, les interrogations à propos du bien-être comme valeur fondamentale de la civilisation industrielle moderne sont devenues plus nettes et plus radicales. L’espoir de rendre compatibles deux valeurs fondamentales de la société : la croissance et le bien être avec la protection de l’environnement s’est amenuisée. Depuis les années 70, la cote des valeurs de remplacement, telle que la croissance qualitative est en hausse. Certains citoyens ont conscience de la nécessité de la technique pour la multiplication des supports matériels et intellectuels permettant un élargissement et une diversité des styles de vie et des modèles d’orientation et la conséquence de son utilisation comme moyen de rationalisation et de fonctionnalisation du monde dans lequel ils vivent. Cette ambivalence ne fait qu’accroître le sentiment de malaise et la difficulté à se positionner entre euphorie et scepticisme vis à vis de la technique. La pluralisation des projets de vie a un prix : « l’efficacité de la production s’achète au prix de conditions de travail souvent vides de sens et aliénantes; l’entier de la personnalité est remplacé par un comportement stéréotypé, selon le domaine de fonction segmenté dans lequel on se trouve (travail, foyer, temps libre, etc.) ». Néanmoins, la plus grande partie de la population est tout de même convaincue que la technologie doit nécessairement continuer d’évoluer et que la solution des futurs problèmes de société et d’environnement exigera la mise en oeuvre de technologies encore plus avancées. (Renn, 1995, p 93, 94) Plusieurs enquêtes réalisées en Suisse et en Allemagne en 1987 et 1991, révèlent que la majorité des citoyens interrogés est déchirée entre les promesses de la technique et les doutes envers son développement. « Si l’on prend le risque comme étalon des conséquences indésirables, on s’aperçoit clairement que, malgré l’amélioration objective de la sécurité individuelle, la population prend conscience d’un nombre croissant de risques et considère l’avenir comme de moins en moins désirable. Mais en même temps l’enquête de Meier-Dallah (sur les visions des citoyens suisses sur le futur en 1991) montre que les souhaits concernant le futur ne sont pas uniquement colorés en vert et que les réglementations concernant l’environnement sont aussi considérées comme une menace pour la liberté. » (Renn, 1995, p95) Depuis la fin des années 1970, la prise de conscience des limites de la croissance, des dommages pour l’environnement et des risques pour celui-ci et/ou pour la santé humaine ainsi que la raréfaction des ressources s’est de plus en plus répandue. «Le citoyen doute et, selon son caractère fataliste ou inquiet, se demande s’il peut encore respirer, boire ou manger, faire confiance au monde industriel ou agricole, ainsi qu’aux autorités sanitaires.» (Hartemann, sept 1999, p 8, 9) « Le concept de civilisation du risque émerge dans des sociétés qui n’expliquent plus tout par le destin, ou par la religion ou encore par les caprices de la nature. Il surgit quand la nature et la tradition perdent leur emprise et que l’homme doit décider de son propre chef. » (exposition, Ulrich Beck) Le recours à la notion de fatalité n’est plus possible et l’homme apparaît être le responsable des phénomènes déclenchés lors des catastrophes majeures. Sous l’impulsion des mouvements écologiques, cette prise de distance a également conduit à la formulation du principe de développement durable (Rio juin 1992) face à d’éventuels dommages graves et irréversibles causés par l’homme à son environnement et à ses semblables. La notion selon laquelle l’homme ne peut pas exister s’il détruit son espace vital semble s’imposer de plus en plus fortement avec en arrière plan la conviction que le monde actuel va certainement à sa ruine si nous continuons à vivre comme par le passé. Les tempêtes qui ont ravagé de nombreuses forêts françaises à la fin du mois de décembre 1999, ont alimenté de nombreux articles ou documentaires sur les conséquences d’un réchauffement planétaire dû (en partie?) à l’émission anthropique de gaz à effet de serre. Le gouvernement français a proposé début janvier 2000 un plan d’actions qui permettrait de répondre aux engagements pris lors des accords de Kyoto en 1997. Si des efforts colossaux ont été réalisés pour réduire la pollution, les résultats ne sont pas toujours à la hauteur des espérances. D’autant plus que l’opinion publique est de plus en plus informée, inquiète et exigeante. Dans le domaine sanitaire, la crédibilité des autorités françaises a été remise en question suite aux événements du sang contaminé et à la perception par le public de l’existence d’enjeux économiques forts autour de cette pratique de santé. A la fin du 20ème siècle, une prise de distance vis-à-vis de la science et de la technique a conduit certains à adopter une attitude de précaution envers des présomptions de risque dont l’existence n’est pas corroborée par la démarche scientifique ou envers des risques engendrés par l’économie de production et pour lesquels les enjeux sont tels, qu’on les nie ou qu’on les cache. «A l’heure actuelle, le cercle vertueux entre solidarité, maîtrise scientifique des risques et prise en charge par la collectivité ne fonctionne plus aussi bien. Des promesses de maîtrise des risques ont été démenties par une série d’accidents plus ou moins graves dont certains sont devenus des Affaires. Des risques nouveaux sont apparus et les instances publiques ont eu du mal à répondre, à agir vite et à temps. Une prise de conscience s’est opérée. De plus en plus, la population demande des comptes à tous les responsables (politiques, de l’administration, d’entreprises). On découvre que la science n’est pas aussi assurée qu’on le croyait ou que les experts le disaient. Elle est marquée par de nombreuses controverses qui débouchent sur des controverses sociales. Même si l’évolution technique et scientifique a généré des progrès dans la prévention et la maîtrise des risques comme l’analyse des pesticides dans l’eau potable, la détection des gaz des fumées... Elle a aussi généré d’autres (de nouveaux ?) risques et de nouvelles exigences comme le test de tous les bovins de plus de trente mois lors de l’abattage. D’autre part, la limite des connaissances semble parfois atteinte ou tout au moins la validité de certains dogmes semble remise en cause. Ainsi la protéine Prion Résistante semble être la forme infectieuse de l’ESB. Les Acides Nucléiques ne seraient pas les seules biomolécules capables d’induire la synthèse d’une protéine ! Les décideurs ne peuvent plus demander à l’expert de leur faire un tableau clair, définitif et assuré de la situation pour pouvoir prendre leurs décisions. Les experts scientifiques ne peuvent plus durablement présenter comme résultat scientifique des énoncés répondant davantage à des intérêts stratégiques, économiques et politiques, en raison de la mise en place d’un droit à l’information relayé par des conflits au sein du monde scientifique. La « bonne » solution, « scientifiquement prouvée », incriticable n’existant que très rarement pour les problèmes complexes que la société moderne doit gérer, il semble indispensable que les experts puissent présenter des avis sous forme de palettes de variantes associés aux incertitudes, avantages et inconvénients et limites de chacune de ces variantes. Malheureusement certains scientifiques exclusivement positivistes répugnent à l’étude des aspects éventuellement négatifs du progrès. Nos concitoyens ne rejettent pas le progrès technique mais sa justification ne s’impose plus d’elle même. La méfiance s’est introduite dans les esprits et prend pour cible les scientifiques et les responsables.» (Godard, 1997) Des dérives ont déjà eu lieu: il existe des industriels et des agriculteurs peu vertueux comme en témoigne Nicolas Beau dans un article intitulé « le tour de France officiel de l’horreur alimentaire » paru dans le « canard enchaîné » du mercredi 06.06.1999. « Le Canard s’est procuré un appétissant livre de recettes. Un rapport de huit pages signé par des enquêteurs de la Direction nationale des enquêtes et de la répression des fraudes qui ont été mis sur la piste à partir des dénonciations de concurrents jaloux. » Les enquêteurs ont ainsi observé de nombreuses anomalies quant à la fabrication des farines animales: résidus de fosses septiques, boues de station d ’épuration ou encore « jus de cadavre » y sont incorporés. « Ainsi, la critique de la technique est plus qu’une critique de civilisation. C’est au contact avec la technique que s’enflamme la dispute à propos du droit de faire supporter les risques et à propos de l’acceptabilité des rôles de vie et de travail déterminés par la technique. » (Renn, 1995, p 94) Il semble difficile de tranquilliser avec des mots la population dans son ensemble ou les parties du public conscientes des problèmes. Il est fait appel à tous ceux qui participent au processus de création des risques : à l’industrie, à la production d’électricité, aux sciences, aux partis politiques, aux techniciens... Les populations exigent des actions en direction des valeurs souhaitées ou tout au moins l’organisation de débats. Or ces débats sont jusqu’à présent organisés dans des cadres spécifiques autour de certains champs et techniques de risques. Les acteurs de ces débats sont : les producteurs de la technique, ses financiers, transformateurs et utilisateurs, les normalisateurs dans le cadre étatique, les contrôleurs ainsi que ceux qui sont concernés par la technique. Ils disposent de ressources spécifiques (savoirs et finances) et les relations interactives et communicatives entre eux sont réglées structurellement. Dans le débat sur les risques, modèles d’interprétation et rationalités issus de différents contextes se rencontrent laissant apparaître des controverses même au sein de la science. Il existe bien des tentatives de surmonter les controverses existantes en science par le choix d’une méthode et d’un langage appropriés. L’analyse prévisionnelle est l’une de ces options. Il s’agit d’une méthode servant à la détermination prospective d’événements entraînant des dommages. Un tel processus se base toujours également sur des valeurs d’estimation subjectives ainsi que sur des expériences accidentelles. C’est ainsi que l’accident de la centrale nucléaire de Tchernobyl sert de référence pour évaluer les risques que représente une installation donnée. L’analyse prévisionnelle constitue un défi à tous les scientifiques car les expériences et les estimations, qui peuvent différer selon les motivations profondes, jouent un rôle important, particulièrement lors de l’estimation des probabilités. Dans cette situation, si l’on veut avoir une chance de faire accepter quelque chose, il faut négocier sur le plan social. Ce sera toujours un compromis entre différents contextes, par exemple entre la science et la politique. L’expertise technique et scientifique se doit de s’attacher à ouvrir le débat plutôt qu’à le clore car elle est inéluctablement ancrée dans le champ social, économique et politique. Les citoyens (souvent regroupés en associations) revendiquent une place d’acteur dans ces débats, une certaine démocratisation des décisions et engagements politiques, scientifiques, techniques et économiques. C’est cette pression citoyenne qui a bouleversé l’ouverture des débats sur l’organisation des marchés économiques à Seattle au dernier trimestre 1999. Ainsi la Direction Générale de l’Alimentation propose en 2001-2002 des débats publics sur la sécurité alimentaire. Ces débats nécessitent des lieux et des mécanismes institutionnels suffisamment aptes à traiter ces questions où se mêlent science, technique et économie. La question qui se pose est celle de la place du citoyen, du politique et du financier dans les processus de décision.

      

      Principe de développement durable et principe de précaution ont en commun des exigences au regard du long terme, intégrant une forte composante d’équité entre les générations successives ou face à des dégâts graves et irréversibles et enfin ne se référant pas exclusivement à l’environnement (santé, champ social). « ..En matière d’environnement au sens large, y compris les risques de santé, la notion de développement durable pourrait constituer un principe au sens ou elle viserait un objectif à atteindre. Le principe de précaution relèverait, en revanche de la catégorie du standard juridique permettant d’assurer les objectifs de ce développement, notamment par son ouverture à d’autres savoirs, mais sous la responsabilité du juge. » (Boy, Décembre 1999)

      

      

      1.5.2. Textes juridiques nationaux et internationaux se référant au principe de précaution

      

       Le citoyen consommateur a-t-il actuellement la possibilité de piloter la chaîne des pouvoirs notamment en sanctionnant celle-ci par l’acte de non achat ? Le principe de précaution est très vite devenu un principe de droit international, c’est en effet le 10ème des grands principes retenus par le sommet de Rio. Les états signataires doivent « appliquer le principe de précaution, c’est à dire prendre des mesures pour éviter les impacts potentiellement dommageables..., même lorsqu’il n’existe pas de preuve scientifique de l’existence d’un lien de causalité entre les émissions et les effets ». C’est un principe moral et politique reconnu au niveau communautaire, inscrit dans le traité de l’Union Européenne, même s’il paraît recevoir une intensité juridique variable selon l’ordre juridique dans lequel il intervient : international, communautaire ou national. En France, la Loi Barnier de 1995 relative au renforcement de la protection de l’environnement, y fait référence : «principe selon lequel l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles pour l’environnement à un coût économiquement acceptable». Les mesures doivent donc toucher les sources présumées du risque et doivent être proportionnées au niveau de sécurité que les autorités publiques se sont donné pour objectif d’assurer à la population, au coût des mesures mais aussi au niveau de plausibilité des hypothèses de risque. Le contenu de l’action pourra en fonction de la gravité du danger, aller de l’organisation d’une veille, d’un moratoire (comme le moratoire européen sur l’autorisation de culture de nouvelles variétés d’OGM) jusqu’à la suspension provisoire ou définitive d’une autorisation. L’article 200-1 du Code rural confère à l’état le soin de veiller à l’environnement dans le respect d’un certain nombre de principes, dont celui de précaution. Dans l’article 200-2 le principe de précaution est étendu aux agents privés : « Il est du devoir de chacun de veiller à la sauvegarde et de contribuer à la protection de l’environnement. Les personnes publiques ou privées doivent, dans toutes leurs activités, se conforter aux mêmes exigences ». C’est donc un principe inscrit dans les textes juridiques, sur lequel s’appuie désormais la définition des politiques publiques. Mais selon O. Godard, des lois et d’autres textes juridiques seront nécessaires pour lui donner une traduction sur le plan notamment de la responsabilité pénale. C’est ce que conteste Laurence Boy, professeur à l’université de Nice (droit économique). selon elle, le principe de précaution est un standard juridique. Cette notion de standard vise à traduire des intérêts dont le juge doit se faire l’interprète. On en trouve de nombreux exemples dans le Code civil : les différentes « fautes » ou le comportement du « bon père de famille », sans que nul n’ait jamais contesté le caractère juridique de ces concepts. «Le standard est, en effet, une technique législative volontaire dans laquelle la variabilité est « préparée d’avance » ... Il semble réaliste, dans ces conditions, de définir au moins à titre provisoire, le principe de précaution comme un standard.» Le principe de précaution, notion en constante formation, dont la caractéristique essentielle est qu’elle est avant tout une notion processuelle et méthodologique, « présente l’immense avantage de permettre la pesée des intérêts et la prise de décisions complexes». Celui-ci n’oblige pas seulement, en effet, à s’abstenir en situation d’incertitude ; il commande aussi de prendre le temps nécessaire à la production des connaissances et à la conduite du débat social . » (décembre 1999) Il semble ainsi fondamental de ne pas confondre l’exercice du pouvoir politique avec l’application des connaissances scientifiques et ne pas exiger des experts qu’ils apportent des faits indiscutables, « scientifiquement prouvés », avant que l’administration politique prenne des décisions en terme d’action. «Il faut au contraire organiser l’état sur cette double incertitude : celle donnée par les sciences, lentes, progressives, controversées, et celles des politiques obligés d’expérimenter à tâtons. En confondant les sciences et la politique, on perd toute chance d’obtenir quelque lumière de leur double hésitation. On se prive de toute chance de mener prudemment l’expérience collective. » (Latour, mars 1999, p81) Si l’on s’en tient à la définition de la loi Barnier, le principe de précaution ne s’imposerait pas en France s’il devait entraîner un coût trop important. Mais lorsque le domaine d’application s’étend à la santé publique alors les considérations économiques ne peuvent primer sur les enjeux de santé. Néanmoins, le principe de précaution doit répondre à l’affirmation de la raison, en prenant en compte les coûts dont dépendent les marges de liberté économique et politique car le problème est celui soulevé par Denis Dudos (Godard, 1997), à la raison est souvent mêlée la peur et cette mixité engendre tour à tour négligence ou dramatisation. Selon M-A Hermitte, juriste (Godard, 1997), les décisions de précaution sont souvent qualifiées d’émotionnelles ou de passionnelles, telle la diminution de consommation de la viande bovine depuis le début de la crise de la vache folle. Or, de telles réactions ne sont sans doute pas irrationnelles si l’on considère qu’elles ne sont pas prises au vu de la seule question de l’infectiosité potentielle du muscle des bêtes contaminées, mais de manière à manifester un refus plus large des excès de l’industrie agro-alimentaire, de l’élevage intensif, de la mauvaise information et de l’accumulation des affaires de santé publique. Ainsi les choix des citoyens en matière de consommation sont aussi le reflet d’une protestation ou d’une insatisfaction vis à vis notamment des bouleversements instaurés dans « l’ordre naturel »: les bovins sont des herbivores et les pieds de tomates sont ancrés dans le sol.

      

      On assiste ces dernières années à l’émergence d’un débat public, relais des interrogations des experts et marqué par une perte de confiance des citoyens face à la capacité de l’autorité publique à protéger la santé au mieux des moyens et des connaissances disponibles. Le principe de précaution consiste alors à accompagner une prise de risque raisonnée et acceptée. Mais, à partir de quel degré d’incertitude scientifique estime t’on que le principe de précaution n’est pas applicable? A quels types d’experts doit-on accorder la prééminence, à ceux dont le point de vue est le plus alarmiste ? A ceux qui comme Hans Jonas, philosophe allemand, classent la liberté et l’épanouissement personnel en-dessous de la survie de la nature qui est à leurs yeux, l’objectif fondamental ? La compatibilité des techniques avec la nature doit-elle être cotée plus haut que l’augmentation potentielle de la valeur ajoutée de la production par l’homme ?

      

      

      

      

      1.5.3 Problèmes soulevés par l’application du principe de précaution

      

      

       Le principe de précaution ne doit pas dériver vers une éthique de la peur lourde de conséquences autant sur le plan collectif entraînant une régression du principe de solidarité, que sur celui de la recherche technologique ou médicale qu’elle pourrait freiner voir inhiber. Philippe Hatermann (septembre 1999) estime qu’un «fossé se creuse entre les produits existants et les produits nouveaux (par exemple les organismes génétiquement modifiés). La loi impose que les derniers arrivés fassent l’objet d’une évaluation minutieuse (et dont les résultats, s’ils sont favorables ne seront pas admis par les plus craintifs), tandis que les produits de consommation habituels (voiture, tabac, alcools...) ne sont guère remis en cause, malgré les risques socialement inacceptables qu’ils font courir.» Ce principe ne doit pas non plus viser à supprimer l’incertitude par une communication habile ou une gestion de la peur (les exhortations au calme ou à la raison sont perçues comme autant de manoeuvres de dissimulation), Ni être invoqué sans cesse comme le remède miracle à l’indécision politique. « Une disposition de précaution est censée être une mesure d’attente, prise en l’absence, qu’il faut supposer provisoire, de certitudes scientifiques. Mais quel responsable n’a jamais osé dire: « Aujourd’hui, le doute est levé, on sait que cette substance est inoffensive, il faut annuler les mesures de précaution la concernant » , La position prise en 1995 par la Commission européenne à propos de la teneur limite en nitrates de l’eau de table en est un parfait exemple: après avoir constaté que « les études au long cours chez l’animal n’indiquent pas que les nitrates sont cancérigènes » et qu’en outre « les études épidémiologiques ont échoué dans leur démonstration d’une association avec un risque cancérigène chez l’homme », la Commission conclut « donc » au maintien de la norme établie en 1980 ! La précaution est malheureusement affectée d’un cliquet diabolique : les normes deviennent de plus en plus sévères, car elles suivent le progrès des techniques de détection de la substance incriminée, et non celui des connaissances sur le risque qu’elle est soupçonnée présenter.» ( Duby, mai 2000, p113) Il semble nécessaire d’associer précaution et innovation c’est à dire associer aux décisions prises pour minimiser les risques, le développement de politiques d’adaptation. Prenons l’exemple de l’accord de Kyoto concernant la réduction des Gaz à Effet de Serre, il serait souhaitable que selon les prévisions concernant les conséquences possibles d’un réchauffement de l’atmosphère, les différents pays développent des politiques d’adaptation à la sécheresse, aux tempêtes, aux inondations... Selon Jean-Jacques Duby (Apfelbaum, 1998, p165) «dans le domaine alimentaire comme dans celui de l’environnement, le principe de précaution peut engendrer une désinformation et fixer des normes intangibles, même si l’on découvre avec les progrès ultérieurs de la connaissance qu’elles sont superflues. Les politiques ne devraient-ils pas s’imposer la discipline, lorsqu’ils sont amenés à édicter une législation de précaution, de lui fixer une limite dans le temps, au bout de laquelle cette législation serait réexaminée à la lumière des connaissances nouvellement acquises, et même de financer des programmes de recherche spécifiquement orientés pour déterminer si elle était nécessaire et justifiée ? De telles décisions devraient être accompagnées d’une campagne d’information et non plus de désinformation du public, expliquant que la genèse de la connaissance scientifique peut être un processus long, aléatoire, conflictuel, au cours duquel la demande de certitudes de la société ne peut être satisfaite ?»

      

      D’autre part, en raison de la disparité des législations, «pour certains usages, on limite parfois la présence de certaines molécules à des concentrations infimes, tandis que, dans d’autres domaines, le public est exposé à la même molécule à des concentrations bien supérieures, sans que l’on observe d’ailleurs d’anomalie au sein de la population.» (Hartemann, 1998) C’est le cas par exemple des sulfates présents dans les eaux : la concentration maximale admissible pour l’eau de distribution publique est fixée à 250 milligrammes par litre en raison de l’effet laxatif des sulfates, alors que les eaux conditionnées ne ressortant pas de la même législation, peuvent contenir des concentrations considérables en sulfates allant pour certaines eaux à deux grammes par litre. Selon les intérêts et les valeurs économiques, scientifiques, sociales et morales mis en jeu, la définition des situations relevant de la situation de doute n’est pas la même. Depuis plus de 10 ans, les Etats-Unis et l’Europe se livrent une bataille économique dont l’enjeu est la commercialisation du bœuf aux hormones outre Atlantique. Les rapports fournis en 1999 par les groupes d’experts de Bruxelles à l’Organisation Mondiale du Commerce ne semblent pas pouvoir apporter d’éléments concrets sur l’existence d’un risque mesurable lié à la consommation de bœuf aux hormones. Les Américains jugeant la position de l’Union Européenne scientifiquement indéfendable soutiennent que Bruxelles se sert de ses expertises dans l’unique but de défendre ses éleveurs. Le dernier exemple que nous relaterons est celui de la confusion générée par la fortune médiatique et politique que connaît le concept de principe de précaution. Celui-ci ne doit s’appliquer que dans les cas où le risque potentiel n’est pas scientifiquement démontré (nous ne connaissons pas les mécanismes de causalité ni ne disposons de modélisation aux conclusions validées et pourtant le danger est identifié et le risque suspecté sur la base d’hypothèses jugées scientifiquement probables). « Le grand public mais aussi toute une fraction éclairée de la société allant des journalistes aux hommes politiques, confondent principe de précaution et principe de prudence lequel conduit à prendre des mesures de « prévention », au sens où l’on parle de prévention routière. (Postel-Vinay, avril 2001, p114) « Une politique de prévention s’appuie sur les données empiriques et théoriques disponibles concernant un risque avoué » (O. Godard, décembre 2001, p12,13). Les deux domaines ne sont néanmoins pas totalement étrangers : qu’il s’agisse de prévention ou de précaution, l’objectif du « risque zéro » ne peut être tenu pour une règle générale. De façon paradoxale, on remarque que, sur les dossiers très médiatiques, la tendance est de demander d’en faire plus, davantage pour lutter contre un risque potentiel que pour lutter contre un risque avéré, aux conséquences bien plus amples. Cette constatation à mon avis choquante révèle un manque de cohérence dans la logique décisionnelle, trop sensible à des mouvements d’une opinion insuffisamment éclairée sur la manière dont la société entend gérer les risques collectifs. » (Godard, décembre 2001, p12,13)

      « Il est clair aussi qu’il ne peut être assimilé à un principe d’immobilisme visant à bannir toute innovation technologique. A ce titre, son utilisation est volontiers recommandée actuellement par les tenants des productions dites « traditionnelles », à l’encontre des aliments dits « nouveaux », à commencer par ceux issus des biotechnologies. Cette attitude est curieuse et fort imprudente, si l’on sait par exemple que ces fameux aliments dits traditionnels n’ont jamais fait l’objet de la moindre approche scientifique en terme de sécurité sanitaire. Ils tiennent leur réputation, strictement commerciale et publicitaire, donc lucrative, des appréciations forcément flatteuses de nos grands-mères, d’autant plus faciles à citer comme témoins de moralité qu’elles sont souvent décédées depuis longtemps ! S’il apparaissait un jour - grâce à une réflexion avisée d’un gestionnaire de risque, ou à la suite d’un accident banal de contamination toujours possible quelle que soit la qualité du cahier des charges - qu’il est nécessaire de suspendre la commercialisation de tel ou tel produit « traditionnel » en application du principe de précaution, alors il est bien clair que le combat de certains hérauts médiatiques changerait d’âme et de ton ! » (Louisot, sept. 2000, p234) Dans une communication publiée en février 2000, les commissaires européens proposent au Parlement et Conseil un cadre de mise en oeuvre de ce principe. Ils le « considèrent comme un principe d’application générale qui doit être notamment pris en compte dans les domaines de la protection de l’environnement et de la santé humaine, animale ou végétale ... L’éviction au nom du principe de précaution est une décision prise lorsque les informations scientifiques sont incomplètes, peu concluantes ou incertaines et lorsque des indices donnent à penser que les effets possibles sur l’environnement ou la santé humaine, animale ou végétale pourraient être dangereux et incompatibles avec le niveau de protection choisi.» (La Recherche, avril 2000, p731) «Du fait de son statut et de la pluralité des interprétations en présence, on ne peut voir dans le principe de précaution une solution face à l’incertain mais un intermédiaire entre problèmes et solutions. Il maintient vivante la question de l’incertitude et du risque dans la société mais il ne dit pas comment y répondre. Il ne se manifeste pas comme un impératif catégorique et il ne dicte pas des solutions.» La notion de risque acceptable suppose celle d’acceptabilité sociale sous-entendant information et éducation du citoyen de manière à ce qu’il acquiert la capacité de comparer les risques encourus lors d’une libre exposition à un danger connu comme la prise de boisson alcoolisée et ceux liés à l’exposition à un danger mal connu comme la radioactivité conduisant à un risque de l’ordre de un pour un million. Il apparaît comme un «principe opératoire», assurant un objectif plus général de durabilité. «C’est un véritable état d’esprit à développer, permettant de traiter les problèmes complexes de façon transparente et cohérente grâce à un nouveau dispositif de santé publique qui doit comporter des dispositions en termes d’expertise, d’organisation, de médiation, de formation.» (Dab, in Apfelbaum, 1998, p54)

      

      Le principe de précaution se doit d’ouvrir le débat collectif sur la prise de risque car le véritable danger pour notre société est celui de l’absence de débat public qui la condamne à chercher des coupables. C’est un principe d’action qui « vise à redéfinir les conditions de l’agir en présence de risques potentiels » et non pas un « principe qui veut qu’un décideur ne se lance dans une politique que s’il est certain qu’elle ne comporte absolument aucun risque environnemental ou sanitaire. » (Godard, avril 2001, p111) Les dépenses irrationnelles, les précautions inutiles, les interdits excessifs et la dérive administrative pourraient être progressivement évités si s’instauraient une véritable responsabilité collective avec séparation des fonctions, une déontologie de la communication mais surtout une éducation citoyenne développant une maturité individuelle. « Si les crises sanitaires occupent ponctuellement le devant de la scène médiatique, le consommateur a su prendre un certain recul ; les premiers résultats issus de l’enquête individuelle nationale de consommation alimentaire (INCA), effectuée sur onze mois, viennent de révéler que la sécurité nutritionnelle (développement de l’obésité, maladies cardio-vasculaires...) reste au premier plan de ses préoccupations, devant les risques sanitaires. » (Martin, 2000, p1)

      

      

      

      

      1.5.4. Le principe de précaution un principe d’action à associer à ceux de vigilance et d’éducation citoyenne.

      

      

       Lors des périodes de transition pendant lesquelles s’appliquent des dispositions transitoires permettant d’attendre l’avènement de nouvelles connaissances ou de nouvelles solutions permettant une éradication définitive du risque ou une réversibilité des procédures antérieures, au principe de précaution devrait être associé celui de vigilance. La vigilance est un mode d’organisation pratique des actes de présence et de surveillance par lesquels des événements inattendus peuvent être identifiés et déclencher des alertes. Ainsi, « quelques semaines seulement après la parution, au journal officiel de la République Française du 8 février 1998, de l’arrêté inscrivant au catalogue officiel des espèces et variétés de plantes cultivées en France » les semences de maïs César, Furio et Occitan, génétiquement modifiées pour être plus résistantes à la chenille parasite dénommée Pyrale (un arrêté qui a fait depuis l’objet d’un avis du Conseil d’état préconisant de surseoir à son exécution), le Gouvernement initiait la mise en place d’un système de « Biovigilance » à l’égard de ces « nouvelles » variétés de maïs ayant pour objectif « d’assurer leur traçabilité », de « collecter des informations sur leur comportement et leurs effets non intentionnels » et de « suivre les possibilité théoriques d’apparition d’événements défavorables sur l’environnement lors de leur utilisation à grande échelle ». Un comité provisoire de « Biovigilance » sur les variétés de maïs génétiquement modifiés, réunissant des scientifiques de renom, des représentants de la société civile (agriculteurs, consommateurs, associations de protection de la nature), des professionnels et administrations compétentes, a été installé, dès le 10 mars 1998, pour rendre des avis aux ministres en charge de l’agriculture et de l’environnement sur l’organisation de ce système. Il doit notamment se prononcer sur « les protocoles de suivi de l’apparition d’éventuels événements défavorables à mettre en place », sur « la mise en oeuvre de ces protocoles » mais également sur les « diverses expérimentations » qu’il convient de mener. Après avoir précisé son rôle, ce comité provisoire s’était fixé plusieurs objectifs ambitieux pour la « campagne 1998 ». Il les a tenus. Ses membres en ont fait le constat, lors de la réunion du 30 octobre dernier (2001). » Des procédures de contrôle ont été élaborées, des agents ont été habilités pour 5 ans pour les superviser. Des premiers résultats d’études sur le maïs sont disponibles et d’autres le seront dans les meilleurs délais.

      (http://www.agriculture.gouv.fr/alim/ogm/disp/welcome.html, 2001-07-05) Ainsi, le principe de vigilance permettrait de reconstruire la confiance a priori entre les différents groupes sociaux en jouant une fonction régulatrice.

      

      Les Etats généraux de l’alimentation (dont nous avons déjà parlé précédemment) ont consisté en un ensemble d’études, d’analyses et de rencontres entre octobre et novembre 2000. Dans son allocution d’ouverture de la journée de clôture, Jean Glavany, ministre de l’Agriculture et de la Pêche « a évoqué le « développement d’une défiance à multiples facettes à l’égard de

      notre alimentation », du fait de la succession des crises alimentaires, quant à la sécurité des aliments, quant à leur qualité, et parfois vis-à-vis des acteurs économiques, soupçonnés d’avoir des pratiques de production à risques pour l’environnement ou le consommateur, au nom d’une logique de profit. Aussi Jean Glavany a-t-il insisté sur la volonté du Gouvernement de restaurer le débat public en replaçant le consommateur au cœur des débats. Enfin, il a présenté les enseignements tirés après deux ans à la tête du ministère de l’agriculture et de la Pêche, après avoir rappelé qu’une de ses missions importantes était de veiller à la qualité, à la sécurité et à la diversité des produits. « Le premier enseignement c’est l’évolution des attentes des consommateurs, attentes croissantes en matière de sécurité, de qualité, d’information sur les conditions de production ou les caractéristiques nutritionnelles. Le deuxième enseignement, c’est le constat d’un éloignement considérable entre les consommateurs et les professionnels de l’alimentation et l’existence d’une distorsion entre l’image qu’ils ont parfois d’un produit et les réalités de ses conditions de production. Le troisième enseignement c’est l’absence de culture du risque, et pas seulement du risque alimentaire, dans notre pays, problème culturel et éducatif majeur. » » (Le dossier encart de notre alimentation, janvier 2001)

      

      Rendre le citoyen acteur ?

      

       Différentes phases ont ponctué ces Etats généraux de l’alimentation : une enquête IPSOS qui a fourni l’opinion des consommateurs, des pré-forums ayant permis un dialogue entre les consommateurs et l’ensemble des acteurs de la filière agro-alimentaire et des forums régionaux qui ont été l’occasion de prises de parole institutionnelles. « Il est ressorti des pré-forums que le clivage entre les producteurs et les consommateurs sont très complexes. Des ambivalences, des paradoxes et des contradictions ont en effet été exprimés. Ainsi, par exemple, l’agriculture intensive a été mise en cause par les consommateurs et par certains producteurs en raison de ses conséquences négatives sur l’environnement et dans le même temps, la baisse des coûts de l’alimentation a été portée à son crédit. Près de cinq cents personnes au total se sont exprimées dans les cinq pré-forums. Les forums n’ont pas toujours réuni le nombre de participants escompté et n’ont pas été très propices à l’expression des consommateurs. L’actualité liée à l’ESB a beaucoup interféré sur les débats et a provoqué un décalage par rapport aux résultats de l’enquête IPSOS, réalisée avant la crise. Une coupure nette s’est manifestée entre deux groupes : d’une part, l’ensemble des acteurs de la filière agro-alimentaire, les pouvoirs publics et au moins une partie des scientifiques et d’autre part, la société civile. La communication s’avère très difficile entre ces deux groupes; un sentiment de suspicion entoure les messages des pouvoirs publics et des acteurs institutionnels. » De même durant les débats citoyens sur les OGM organisés par la confédération logement cadre de vie, l’Union féminine civique et sociale et Familles rurales, « une très forte opposition s’est exprimée au cours des débats : leurs effets à long terme sur l’environnement et sur la santé suscitent des inquiétudes (peur des allergies en particulier) et ils ne servent pas l’agriculture désirée. Les consommateurs ne font pas de différence entre OGM et partie d’OGM, refusent très nettement le seuil des 1 % et demandent plus de contrôles. Ils ne connaissent pas la réglementation sur les conditions d’autorisation de mise sur le marché des OGM mais considèrent que « le principe de précaution  n’est pas respecté ». Ils s’interrogent sur la localisation des essais et sur les raisons qui ont conduit le Gouvernement à détruire certaines cultures « contaminées » (colza) et pas d’autres (maïs). Ils sont favorables à la recherche en biotechnologie et revendiquent un droit de regard sur ses finalités, souhaitent qu’un plus grand effort public lui soit consenti, ainsi qu’à l’agriculture biologique, mais demandent que d’autres formes d’agriculture soient aidées. Les consommateurs considèrent aussi qu’il serait « extrêmement dangereux pour la société qu’il n’y ait point de salut hors du bio », car ceci engendrerait un clivage social par l’argent.» A propos des OGM, Lionel Jospin, Premier ministre de la France a considéré «  que les avancées réalisées au cours des derniers mois « ne sont pas suffisantes pour lever le moratoire sur les autorisations d’organismes génétiquement modifiés, mis en place depuis le mois de juin 1999. » Il a ajouté que « les procédures d’autorisation des OGM ne pourront reprendre que lorsqu’une traçabilité complète des OGM - tout au long de la chaîne qui va de la semence aux produits vendus aux consommateurs - aura été effectivement mise en place. » Celle-ci « permettra aux consommateurs d’exercer leur liberté de choix. » Lionel Jospin a indiqué que « le dialogue avec les acteurs de la société civile doit être poursuivi » sur ce thème. » (Le dossier encart de notre alimentation, janvier 2001) Guy Paillotin déclarait au sujet des biotechnologies nouvelles:  « pour toute innovation, ce qui compte finalement, c’est la meilleure satisfaction des demandes des consommateurs. Pour les accepter, ils doivent y trouver un intérêt... Aujourd’hui, on annonce au consommateur de nombreuses innovations, mais on est incapable de lui dire ce qu’il va en tirer. Il y à là une contradiction qui doit faire réfléchir sur la communication. Au minimum on devrait dire au consommateur combien il paiera en moins, au niveau des prix, ou encore combien d’aides directes seront données en moins à l’agriculture, compte tenu de telle ou telle innovation. Ces informations, le consommateur est en droit des les avoir, car c’est en l’informant qu’on le respecte et que l’on peut obtenir son accord. » (Paillotin, 1997) Ainsi, les états généraux de l’alimentation organisés de septembre à décembre 2000 « ont démontré la nécessité :

       _ d’améliorer les informations du public sur les produits ;

       _ de développer les débats publics sur l’alimentation ;

       _ de mettre en oeuvre un Programme national nutrition-santé accompagné d’une sensibilisation et d’une éducation à l’alimentation.

      Ils ont aussi souligné le rôle des consommateurs en tant que co-décideurs dans le domaine de l’alimentation. » (Ologoudou, 2004) C’est autour de l’alimentation que s’impliquent les domaines de la santé, de l’environnement et de la consommation. Les 14 et 15 mars 2003, l’Institut Bruxellois pour la Gestion de l’Environnement a organisé le premier parlement citoyen pour le développement durable. Ces journées ont été l’occasion de lancer le manifeste pour une politique internationale intégrée « Consommation et environnement » dans une optique de développement soutenable. « Considérant que :

       _ les modes de consommation des pays « développés » ne sont plus durables, que ce soit du point de vue de l’épuisement des ressources naturelles, en termes de pollutions et nuisances ou en termes d’inégalités de consommation à l’échelle planétaire ;

       _ des produits et modes alternatifs de consommation, plus durables, autrement dit plus respectueux de l’environnement et plus justes sur le plan socio-économique doivent être promus activement, en particulier dans le cadre de la politique européenne ;

       _ les consommateurs ne disposent pas à l’heure actuelle d’informations suffisantes et fiables pour leur permettre de poser des choix de citoyens intégrant les

      dimensions environnementales des produits qu’ils consomment.

      

      les soussignés demandent que soit développée de façon urgente une politique internationale intégrée « environnement/consommation » en lien avec les principes développés ci-dessous.

      

      Principes généraux :

      

      A / Satisfaire aux besoins fondamentaux des être humains et en particulier des populations les plus démunies sans réduire la capacité de l’environnement de répondre aux besoins des générations futures. Il s’agit là de développer des politiques de partage équitable, de lutte contre le gaspillage des ressources et de minimisation des nuisances et pollutions... en veillant à concilier les intérêts des individus en tant que consommateurs, travailleurs et citoyens.

      B / Intégrer concrètement le droit à un environnement sain, impliquant par là des modèles de production et de consommation durable, aux droits plus classiquement reconnus des consommateurs en matière de sécurité, de choix, de représentation, de satisfaction des besoins.

      C / Promouvoir systématiquement la consommation soutenable. Il s’agit de consommer mieux mais aussi de consommer moins pour les mieux nantis et plus pour les plus défavorisés afin de répondre aux besoins vitaux / essentiels de tous, et notamment par la recherche de nouvelles manières de satisfaire.

      D / Elaborer des outils juridiques, économiques, éducatifs permettant aux consommateurs de disposer d’un soutien pour poser les bons choix en connaissance de cause.

      

      Principes spécifiques :

      

      Elaborer des mesures spécifiques pour promouvoir :

       _ la réflexion sur les choix en fonction des besoins ;

       _ l’achat de produits respectueux de l’environnement à la place des produits traditionnels ;

       _ l’utilisation des produits de façon écologiquement rationnelle.  »

      (colloque Consommation responsable : quelle citoyenneté alimentaire ?, 24 mars 2004, p17,18)

      

      

      A l’entrée du 21ème siècle, les idéaux de société tels que le communisme et le libéralisme à outrance déclinent. D’autres apparaissent : développement durable, consommation soutenable assortis d’un nouveau droit, le droit à un environnement sain. Une grande attention est donc prêtée au champ Santé Environnement et les colloques, états généraux, avis et rapports se multiplient. Tous font le même constat : « Ces questions posent des défis majeurs sur le plan de la connaissance. Notre pays n’a pas, dans ces domaines, su prendre sa part de l’effort collectif de la communauté scientifique internationale. Cette faible contribution réduit notre aptitude à gérer intelligemment ces risques environnementaux, car elle induit un décalage grandissant entre les attentes des citoyens et les réponses des autorités politiques, décalage qui résulte d’un double phénomène vicieux :

      1) Une difficile compréhension par l’opinion publique des enjeux et réalités des risques environnementaux, dans la mesure où le caractère « édifiant » ou pédagogique d’un travail scientifique mené dans le contexte français et/ou avec des équipes nationales serait naturellement plus grand que celui des recherches conduites beaucoup plus loin ; or ce processus d’acculturation est une condition de débat public de qualité, d’où des angoisses et exigences du public qui apparaissent parfois « irrationnelles ».

      2) Une information déficiente des décideurs publics, liée aux insuffisances de l’expertise scientifique ; il est en effet essentiel que chacun comprenne bien que la capacité d’expertise ne peut être entretenue à haut niveau que par la pratique régulière de la recherche. » (Plan national Santé Environnement, Rapport Final de la Commission d’Orientation, 12.02.2004)

      

      Nous allons dans la suite du chapitre, à l’aide de deux thématiques appartenant au champ Santé Environnement, tenter d’illustrer ces constats et montrer combien il est difficile pour le citoyen mais aussi pour le professeur chargé de l’éducation Santé Environnement d’obtenir des informations fiables et consensuelles afin de lui permettre de choisir et d’agir en connaissance de cause, tant les contenus sont soumis à divers enjeux.

      

      

      


2 Des contenus en cours d’élaboration ou des contenus « mouvants »

      

      Nous avons choisi pour illustrer ce paragraphe deux domaines du champ Santé Environnement : la qualité des eaux d’alimentation et les infections. L’étude des contenus (sur une vingtaine d’années) repose sur des documents que le professeur chargé de l’éducation Santé Environnement peut se procurer afin de préparer ces cours, à savoir des publications scientifiques et techniques mais aussi des dépliants à destination du grand public.

      

      


2.1. La qualité des eaux d’alimentation

      

      

       Le 28/03/1990, l’office parlementaire d’évaluation des choix scientifiques et technologiques a été saisi, sur demande de la Commission des affaires économiques et du plan du Sénat, d’une étude portant sur : «la préservation de la qualité de l’eau, en particulier les conditions de distribution de l’eau potable et le traitement des eaux résiduaires». Une vive inquiétude chez les responsables de la distribution d’eau mais aussi chez les divers consommateurs et utilisateurs étant intervenue alors que la sécheresse qui avait déjà sévi en 1989, se faisait à nouveaux sentir en 1990, a motivé cette saisine. Les problèmes de l’eau ont été longtemps occultés en raison d’une abondance de ressources qui semblaient inépuisables et d’un taux de réalisation des branchements d’eau potable proche de 100 %. Les problèmes de sécheresse, médiatisés ont permis un éveil de l’opinion et aujourd’hui le moindre incident en matière de distribution et de qualité d’eau potable est largement médiatisé. Cette saisine intervient dans une période de réflexion faisant l’objet de nombreux rapports et recherches sur les ressources en eau et leur qualité dans le cadre de la préparation et/ou de l’entrée en vigueur des directives européennes et surtout dans celui de l’élaboration de la loi sur l’eau de 1992 (remplaçant celle de 1964). Dans sa conclusion, l’office parlementaire insiste sur l’enjeu majeur de l’avenir de notre civilisation que constitue la préservation de la qualité de l’eau. Considérant que le projet de loi sur l’eau répond à cette nécessité, il appelle de ses voeux une convergence de moyens et des décisions rapides concernant (surtout préventifs) en priorité :

       _ la sauvegarde de la qualité des eaux souterraines,

       _ la réhabilitation des réseaux de distribution,

       _ la création d’un outil statistique fiable pour l’eau et l’assainissement.

      

      Considérée souvent comme un symbole de pureté, l’eau est progressivement devenue le produit alimentaire le plus surveillé. Les médecins du XIX ème siècle en imputant la transmission du choléra et de la typhoïde aux eaux contaminées, réagirent empiriquement en poussant les villes à se doter d’eaux hygiéniques. L’étude de la qualité de l’eau de boisson n’a jamais cessé depuis.

      

      

      

       2.1.1. Des normes pour garantir la qualité de l’eau potable

      

       En 1885, la potabilité d’une eau était définie à l’aide de six paramètres, aujourd’hui on en compte environ 60 classées en 5 catégories :

       _ organoleptiques,

       _ physico-chimiques,

       _ substances indésirables,

       _ substances toxiques,

       _ paramètres microbiologiques.

      

      Les normes françaises actuelles, relatives aux eaux destinées à la consommation humaine ont été fixées par le ministère de la santé (qui s’est appuyé sur le Conseil supérieur d’hygiène publique de France) par le décret du 03/07/89 modifié le 10/04/90 à partir de la directive C.E.E. du 15/07/80. Elles dressent la liste des paramètres de qualité des eaux et les valeurs limités qui leurs sont associées. Les valeurs sont fixées en regard de trois types de risques :

      

       1) Toxicité aiguë ou chronique due à la présence de composés chimiques qui n’ont d’effet toxique qu’à des concentrations supérieures à un certain seuil. Et pour lesquelles on fixe une C.M.A. ou Concentration Maximale Admissible.

      

      Exemple 1 : Nitrates et méthémoglobinémie (affection qui se manifeste par un manque d’oxygénation des tissus et se traduit par des difficultés respiratoires et des vertiges) CMA = 50 mg/l

      

      Exemple 2 : Fluor : CMA = 1,5 mg/l pour une température de 8 à 12° C et Fluorose (entraînant une malformation dentaire, une décalcification osseuse, des troubles digestifs et nerveux).

      

      Exemple 3 : Plomb : CMA = 50 µg/ et encéphalopathies.

      

       2) Risques liés à la présence de produits cancérigènes ou suspectés de l’être comme certains radioéléments ou composés organiques.

      

      Exemple : Pesticides : CMA par substance : 0,1 µg/l

      

       3) Risque de maladie infectieuse d’origine bactérienne, Virale (Hépatite A, Gastro entérites) ou parasitaires (Dysenterie amibienne), Salmonella typhi (fièvre typhoïde).

      

      

      Les valeurs limitées sont fixées au regard des recommandations de l’Organisation Mondiale de la Santé. Les Directives de Qualité pour l’eau de boisson ont été publiées à Genève. Les normes européennes ne peuvent être modifiées par les pays membres que dans le sens d’une plus grande sévérité. Les textes législatifs et réglementaires en matière de traitement d’eau sont en constante évolution dans tous les pays. Cette pratique inflationniste des normes (en 1996 la qualité des eaux destinées à la consommation humaine était régie par deux lois : 16/12/1964 et 09/01/1992, 26 décrets, 5 arrêtés et 2 circulaires.) se poursuit au rythme de la progression des pollutions et de la connaissance de leurs effets sur la santé. Si la transmission d’une maladie infectieuse comme le choléra peut être directement imputée aux eaux contaminées, il apparaît être plus délicat de calculer un risque sanitaire propre à une eau défectueuse et donc de mettre en cause la qualité de l’eau potable dans l’apparition d’une maladie chronique. Selon F. Pouilly (Hôpital Pellegrin CHU de Bordeaux, Août/Septembre 1993 p.47), «de nombreuses recherches restent alors à faire pour mettre en énergie des problèmes à venir ou mal perçus jusqu’ici tels ceux liés aux résidus de pesticides ou aux nitrates.»

      Depuis 1993, la communauté européenne a entrepris de réviser ses normes (datant de 1980) afin de tenir compte de l’évolution des connaissances scientifiques et médicales. Une nouvelle directive a été adoptée le 03 novembre 1998. La France doit mettre sa réglementation en matière de qualité de l’eau potable en conformité avec cette nouvelle directive avant le 25.12.2000 et prendre les mesures nécessaires pour garantir le respect de ces nouvelles normes à compter du 25.12.2003. Parmi les innovations introduites par la nouvelle directive, on peut retenir :

       _ la modification des paramètres de qualité dont le nombre passera de 63 à 48 ;

       _ le contrôle de la qualité de l’eau qui s’effectuera au robinet du consommateur ;

       _ la norme relative au plomb qui passera progressivement de 50 µg/l à 10 µg/l.

      

      

      

      

      Des paramètres de qualité de l’eau modifiés

      

       Les experts et les législateurs se sont focalisés sur les éléments pouvant présenter des risques pour la santé à court, moyen et long terme. En revanche certains paramètres (notamment les paramètres organoleptiques) seront seulement contrôlés comme indicateurs du bon fonctionnement des installations de traitement et de distribution voire abandonnés ( Ag, Zn, P, K...). La nouvelle directive répartit les paramètres de qualité en trois grands groupes :

       _ les paramètres microbiologiques à caractère impératif (ayant une incidence directe sur la santé) ;

       _ les paramètres chimiques à caractère impératif ;

       _ les paramètres bactériologiques, chimiques et physiques à caractère indicatif

       ( Al, Cl, SO4, Fe, Mn, Na, turbidité ).

      

      Certaines normes restent inchangées ( nitrates, pesticides, mercure, chrome, sélénium, cadmium....), d’autres sont assouplies (cuivre, nitrites), d’autres encore sont plus sévères ( arsenic, nickel, antimoine, hydrocarbures aromatiques polycycliques et plomb). Enfin, de nouveaux paramètres impératifs de qualité apparaissent : bore, bromates (sous-produits issus du traitement de l’eau par l’ozone), benzène, trichloroéthylène et tétrachloroéthylène (sous-produits du traitement de l’eau par le chlore).

      

      

      Des contrôles au robinet du consommateur

      

       Les contrôles ne concernent plus seulement le réseau public de distribution mais également les installations privées. L’Union Européenne tient compte ainsi des attentes des consommateurs considérant que la qualité de l’eau peut se dégrader dans les canalisations intérieures. Néanmoins la directive précise que la responsabilité des pouvoirs publics ne sera pas engagée, s’il peut être établi que le non respect des normes est dû à l’installation privée du consommateur ou à son entretien (sauf dans les locaux où l’eau est fournie au public, tel que les écoles, les hôpitaux et les restaurants). Toutefois les états membres devront mettre en oeuvre des mesures d’information et de conseil auprès des propriétaires, voire envisager des procédures de traitement de l’eau, avant livraison, susceptibles de réduire la dégradation de la qualité sur le réseau privé.

      

      La norme relative au plomb sera diminuée par paliers

      

       La teneur maximale en plomb de l’eau du robinet passera de 50 µg/l à 25 µg/l avant le 25.12.2003 puis à 10 µg/l avant le 25.12.2013 (sauf dérogation exceptionnelle). Selon le Centre d’Information sur l’Eau (CI.Eau, association loi de 1901) dans une plaquette d’information de juin 1999 sur la nouvelle directive européenne relative à la qualité de l’eau, la révision de la norme plomb a été adoptée pour participer à la diminution des apports potentiels et contribuer ainsi à protéger les catégories de population des plus « vulnérables » en la matière : les jeunes enfants et les femmes enceintes. Il s’agit là d’une nouvelle illustration du « principe de précaution »: même si les doses admises aujourd’hui dans l’eau (50 µg/l) sont suffisantes pour protéger la santé (c’est d’ailleurs pourquoi une période transitoire de 15 ans peut être envisagée), on souhaite aller encore plus loin dans la sévérité de la norme pour augmenter la marge de sécurité sur la santé à long terme. La mise en conformité des eaux par rapport au plomb va donc mobiliser des investissements très importants, non seulement au niveau des réseaux de distribution publique (traitements supplémentaires, réhabilitation des branchements...), mais surtout dans les installations intérieures des habitations.

      

      

      L’eau destinée à la consommation humaine fait partie des produits alimentaires les mieux contrôlés. Cette vigilance est assurée par les Directions Départementales de Affaires Sanitaires et Sociales (DDASS) sous l’autorité des préfets. Néanmoins le consommateur alerté par les médias est en droit de s’interroger sur la qualité de l’eau du réseau d’adduction, d’exiger le respect des normes de potabilité compte tenu de l’augmentation constante du prix de ce service. Chacun s’interroge sur la teneur en plomb mais aussi en nitrates, en pesticides, l’éventuelle contamination bactérienne de son eau. Le goût de chlore et la dureté sont souvent reprochés et incitent parfois à consommer de l’eau embouteillée. Nous allons tenter dans ce paragraphe de faire le point sur le bien fondé de ces différentes questions.

      

      

      

      

      

      

       2.1.2. Pollution de l’eau par les nitrates: vrai ou faux problème de santé publique ?

      

      

      Du risque de méthémoglobinémie à celui de cancer

      

       Jusqu’aux années 1970, on ne recherchait qu’épisodiquement la présence de nitrates dans l’eau potable (comme témoins d’autres polluants), pourtant le premier cas d’intoxication animale mortelle par les nitrates a été rapporté par Mayo en 1895. Il s’agissait de bovins morts après avoir ingéré de grandes quantités de maïs-fourrage contenant un pourcentage élevé de nitrates. Le lien entre l’absorption de fortes doses de nitrates et la méthémoglobinémie humaine a été mis en évidence par Comly en 1945. Il a attribué l’origine d’une cyanose aiguë présentée par deux enfants âgés respectivement de 27 jours et de 33 jours à une méthémoglobinémie causée par une eau de puits fortement changée en nitrates et en nitrites 388 et 619 mg NO3- /litre et 1,3 et 0,4 mg NO2- /litre (Actes du colloque « les nitrates », 1994). Bien qu’il soit difficile d’établir des relations précises entre les doses absorbées de nitrates (dans les aliments solides par l’eau de boisson et de cuisson) et le taux méthémoglobine dans le sang, on estime que la maladie peut apparaître lorsque les teneurs des eaux d’alimentation en nitrates dépassent 50 mg/l (Concentration Maximale Admissible). Pour les nourrissons consommant du lait reconstitué, l’apport en nitrates est directement proportionnel à leur teneur dans l’eau de dilution. (CMA = 15 mg/l pour la confection des biberons). Une eau contenant quelques dizaines de milligrammes de nitrates peut représenter un danger pour le nourrisson. Son estomac moins acide que celui des adultes, permet aux bactéries commensales du colon de proliférer et de transformer par réduction les nitrates en nitrites qui passeront alors dans le sang. Dès qu’ils parviennent dans le plasma au contact des hématies, les ions nitrites sont susceptibles de se combiner au Fe++ de l’hémoglobine pour donner la méthémoglobine (Fe+++). Et donc deviennent des ions nitrates mole pour mole. La méthémoglobine (ou hémoglobine non fonctionnelle car ne possédant plus de valence libre susceptible de fixer une molécule d’O2), réduit l’oxygénation des tissus et au delà d’un certain seuil des troubles graves apparaissent principalement chez le nourrisson (cyanose : coloration bleue-noire des extrémités lorsque 10% des hématies sont atteintes, tachycardie, troubles neurologiques). L’adulte contrairement au nourrisson et au fœtus possède un système enzymatique réducteur permettant la réduction du fer ferrique (Fe+++) en fer ferreux : coloration bleue-noire des extrémités, polypnée, tachycardie, trouble neurologique (Fe++). D’où la différence des normes concernant l’adulte et le nourrisson (50 mg/l - 20 mg/l). Ces normes ont donc été fixées en fonction des risques encourus par la population la plus vulnérable, les nourrissons et les femmes enceintes selon le principe de précaution maximale.

      

      En ce qui concerne la métabolisation des nitrates dans le tube digestif et le risque cancérogène, ils supposent que les nitrates soient réduits dans la cavité buccale et dans le colon par des bactéries commensales, utilisant les nitrates pour leur propre besoin nutritionnel. Les nitrites formés alors par réduction, agiraient sur des amines secondaires pour former des nitrosamines cancérogènes en milieu acide, celui de l’estomac. Ainsi les nitrates sont des sources indirectes de composés N nitrosés (CNO) = nitrosamines et nitrosamides. Après la découverte en 1956 de l’hépato toxicité d’un composé N nitrosés (la N nitrodiméthylamine) la recherche scientifique a fait dans les années 80 l’objet d’un étonnant développement dans ce domaine ( Znisou, 1994). Aucun effet cancérigène n’a été constaté chez l’homme. Dans ses Recommandations (brochure : Directives de la qualité pour l’eau de boisson, vol1, 1994), l’Organisation Mondiale pour la Santé, estime qu’il existe des relations géographiques fortes entre l’exposition aux nitrates et les cancers, notamment celui de l’estomac, mais déplore le défaut de preuves épidémiologiques. La présence d’azote (sous forme nitrique, nitreuse, ammonicate...) témoigne d’une contamination due aux lacunes dans la chaîne du transport et du traitement des eaux usées urbaines et industrielles mais aussi d’origine agricole (engrais azotés effluents d’activité d’élevage) dans un secteur hydrogéologiquement vulnérable.

      

      

      Pollution de l’eau de consommation par les nitrates

      

       Depuis que l’on analyse l’eau, on sait qu’il a toujours existé localement des eaux polluées par les composés de l’azote. Mais on constate depuis le début des années 1970, dans certains départements (Cher, Eure-et-Loir, Finistère, Mayenne, Pas-de-Calais et Vendée) une augmentation continue de la teneur en nitrate des eaux superficielles et surtout souterraines. En ce qui concerne les eaux souterraines, un décalage important dans le temps (se mesurant en années, voire en décennies) entre les causes et les effets, occulte la gravité des phénomènes. Là où la pollution en nitrates ne s’est pas encore manifestée, elle le fera dans les années à venir. Dans les années 1980 cette situation «qui se retrouve d’ailleurs dans tous les pays pratiquant une agriculture et un élevage intensifs, n’est pas à proprement parler alarmante, elle n’est pas moins préoccupante.» (Les nitrates dans l’eau, un défi relevé : brochure éditée par la Mission Eau Nitrates) Cette mission engagée par deux départements ministériels : le Ministère de l’Agriculture et le Ministère de l’Environnement, proposait deux types d’action : une action préventive et une action curative plus ponctuelle et immédiate de manière à fournir aux populations exposées à la pollution nitratée une eau potable conforme aux normes. Le bilan national établi par la direction générale de la santé dans les années 1985-1986 révèlent qu’à cette date, près de deux millions de personnes consommaient une eau dépassant 50 mg par litre de nitrates, pratiquement autant qu’en 1981, et ce, en dépit des travaux de mise en conformité entrepris en application de la directive communautaire de 1980. «La direction générale de la santé a donné la priorité, pour les travaux de mise en conformité, aux personnes dont l’eau dépassait 100 mg de nitrates par litre entre 1981 et 1986 leur nombre a chuté de 280000 à 10000. Mais il y a 52000 Français de plus dans la catégorie 50 à 100 mg par litre.» (Tassin, janvier 1990)

      

      

       Action préventive

      

       En 1980 des recommandations ont été faites aux agriculteurs pour réduire le lessivage de manière à concilier à la fois l’intérêt des agriculteurs et la protection des eaux. Par exemple :

      _ Raisonner la fertilisation azotée par analyse préalable des sols, mesure des reliquats d’azote avant fertilisation, utilisation de modèles de fertilisation et de logiciels...

      _ Prévoir une aire étanche pour le stockage des effluents d’élevage, des fumiers...

      De nombreuses études concernant les pertes en azote du sol, ont été réalisées, notamment par l’INRA : Institut National de Recherche Agricole à la station de Châlon en Champagne. (Mariotti, juillet 1998) Selon celle réalisée par B. Nicolardot, chaque apport annuel d’engrais azoté est responsable d’une petite perte annuelle. Mais pendant très longtemps ces pertes s’additionnent, expliquant ainsi les grandes quantités de nitrates perdues après une quarantaine d’années de fertilisation régulière. Des accords ont été passés entre les agences de l’eau et les chambres d’agriculture sous forme de contrats d’amélioration. Des cellules techniques (SUBRA : Service d’Utilisation des Boues Résiduaires en Agriculture) aidées financièrement par l’Agence de l’Eau Artois-Picardie sont chargées depuis une quinzaine d’années de promouvoir, favoriser et contrôler l’utilisation raisonnée des boues urbaines dans les terres agricoles. La modélisation de l’accroissement des concentrations de nitrates dans les nappes obtenue en additionnant les pertes correspondant aux apports annuels successifs, démontre que même si l’on arrêtait tout apport d’engrais (hypothèse hautement improbable si l’on veut maintenir la productivité), le retour à l’état antérieur durerait plusieurs décennies. De plus la variabilité inter-annuelle des pertes en azote est très grande et conditionnée notamment par les périodes de pluie. Même lorsque la fertilisation azotée est bien gérée, des pertes se produisent par lessivage. Même si ces pertes sont relativement faibles (environ 10 % de la quantité totale mise en jeu pour la culture), dissoutes dans l’eau d’infiltration, elles sont à l’origine en climat tempéré d’une concentration de 53 mg de nitrates par litre en moyenne. Néanmoins, A. Mariotti, directeur du laboratoire de bio géochimie isotopique de l’Université Pierre et Marie Curie à Paris termine son article par un vœu (pieux ? ) : « pour remédier aux pollutions associées à l’azote, il reste à inventer de nouvelles pratiques dont nous savons que les résultats ne seront apparents qu’après de nombreuses années. » (Mariotti, juillet 1998)

      Des études réalisées en 1991 par la DDASS sur la qualité des eaux de la nappe de la craie dans le bassin Artois-Picardie, montrent que la pollution de l’eau souterraine est aujourd’hui bien plus fréquente (70 %) dans les forages sous influence urbaine que dans les forages dont le bassin versant est uniquement rural. Ce constat a amené l’Agence de l’eau à mettre en place des aides financières renforcées :

       _ pour un assainissement de qualité dans les zones urbaines concernées,

       _ pour la mise en oeuvre des périmètres de protection des captages.

      La directive européenne sur les eaux résiduaires urbaines, impose à chaque état membre de lancer un programme d’assainissement tel que les agglomérations de plus de 2 000 équivalents habitants soient équipées d’un système complet d’assainissement, à l’échéance 1998 - 2000 (selon la taille de l’agglomération et de la sensibilité du milieu où elle se trouve). Pour le septième programme quinquennal des Agences de l’eau (1997 - 2000), l’accent est mis sur l’assainissement autonome en milieu rural et la dépollution agricole. En 1993 la moyenne nationale du taux d’épuration par les stations françaises n’était que de 45 % (données office international de l’eau, 1995). Depuis, de nouvelles stations, de nouveaux raccordements ont été effectués et des améliorations apportées mais la performance des stations françaises reste médiocre, notamment en ce qui concerne la pollution nitratée. Les communes les plus exposées à la pollution nitratée et au risque de contamination de la ressource en eau potable doivent envisager la mise en oeuvre d’unités de traitement des nitrates.

      

      

       L’action curative

      

       Deux techniques sont utilisées pour l’élimination des nitrates :

       La dénitrification qui est une transformation biologique des nitrates en azote gazeux, agrée en 1981 (avec utilisation d’acide acétique comme source de carbone pour les bactéries assurant la transformation).

      

       La dénitratation sur des résines qui est un procédé physico-chimique d’échanges d’ions agréé en 1985.

      

      Parallèlement à ces techniques de dénitrification en surface pratiquées dans les usines de traitement des eaux qui nécessitent des investissements lourds, des études sont menées notamment par A. Mariotti sur la dénitrification spontanée des eaux souterraines. Ce phénomène a été mis en évidence en particulier dans la nappe de craie situé entre Lille et Douai. L’objectif étant de stimuler ou mieux encore provoquer la dénitrification en vue de rendre compatible la concentration en nitrates des nappes polluées avec les normes de potabilité en vigueur. « Il suffit d’injecter dans la nappe polluée de petites quantités de carbone organique soluble, de l’alcool par exemple. Dans toutes les expériences la dénitrification démarre sous l’action des bactéries naturellement présentes dans le milieu et devient très efficace. Toutefois très rapidement, les pores de l’aquifère sont colmatés par les corps bactériens de la biomasse dénitrifiante qui se reproduit trop rapidement: à terme, l’eau circule plus mal, introduisant un dysfonctionnement hydraulique de la pompe. » (Mariotti, juillet 1998, p64) Selon R. Derache et P. Derache (Professeur Emérite de l’Université Paul Sabatier à Toulouse d’une part et professeur de Biochimie clinique de la Faculté de Sciences pharmaceutiques de Bordeaux d’autre part), «les nitrates n’ont jamais autant été au cœur de l’actualité et des contradictions». ( 32/5/1997 p. 283 - 293)

      

      

      

      Les nitrates: quels risques pour la santé ?

      

       En mai 1993 s’est tenu à Rennes un colloque intitulé «Les nitrates. Effet de mode ou vrai problème de santé?» Ce colloque a permis d’établir un point sur l’état des connaissances scientifiques concernant les effets sur la santé des nitrates.

       1 - «Le seul risque sanitaire pour lequel des données fiables existent est le risque de méthémoglobinémie, ce risque est aujourd’hui devenu très rare, y compris dans les régions où l’eau est modérément chargée en nitrates.»

       2 - «de grandes incertitudes subsistent quant aux risques cancérigènes».

      La Société française de santé publique, à la suite de colloque, a proposé de développer

      des recherches qui permettraient :

       de mieux connaître le niveau d’exposition global des français en tenant compte

       de l’ensemble des apports en nitrates et nitrites ;

       d’estimer le poids relatif des différents facteurs intervenant dans le risque de méthémoglobinémie, à savoir :

       _ la teneur en nitrate de l’eau ou des végétaux,

       _ la contribution microbienne de l’eau ou des végétaux,

       _ la flore microbienne du corps humain,

       _ la susceptibilité et les pathologies individuelles (en particulier les dysfonctionnement gastriques).

      La Société Française de Santé publique recommande aux familles le respect des règles d’hygiène dans la conservation des biberons et des aliments de façon à limiter l’influence des bactéries réductrices. (Znisou, 1994) Pour J. et J.L L’Hirondel : «si les biberons sont gardés à l’abri des pullulations microbiennes, les nitrates de l’alimentation, les nitrates des légumes, les nitrates des eaux de consommation sont sans danger pour l’homme». (L’Hirondel, 1996, p93) Dans un avis du 08.06.1998, le Comité de la Prévention et de la Précaution du ministère de l’Environnement recommandait de respecter la concentration réglementaire de 50 mg de nitrates par litre d’eau destinée à la consommation, d’accroître les connaissances sur leurs effets à long terme sur la santé et d’intensifier les actions visant à limiter leur prolifération. Or durant la même période une thématique inverse s’est développée. Selon R. et P. Derache, « on a confondu l’utilité des nitrates comme marqueurs biologiques quantitatifs d’un risque bactérien réel en amont du produit, ici l’eau, avec le risque nul d’un produit chimique le nitrate et l’on a confondu du même coup une dose marqueur de pollution avec la Dose Journalière Admissible, ce qui n’a rien à voir» (Derache, 1997, p284). La D.J.A. des nitrates est fixée à 3,65 mg / jour / kg. (219 mg de NO3- / jour pour un adulte de 60 kg) par la directive OMS et FAO de 1962. La D.J.A. traduit l’apparition d’un risque dû à l’absorption de faibles quantités de substances étrangères à l’alimentation normale. Elle est basée sur des connaissances approfondies des propriétés des substances étrangères et de leurs effets chez l’animal. Lorsque les études n’ont pas été effectuées chez l’homme, les valeurs sont généralement fixées à 100 fois au dessous de celles qui se sont montrées sans effet sur l’animal le plus sensible après une ingestion continue sur une période de 18 à 24 mois selon l’espèce. «La décision de limiter à 50 mg par litre la teneur en nitrate de l’eau potable par les hygiénistes et les autorités publiques est une décision sage qui respecte un des droits alimentaires fondamentaux du consommateur, la qualité de son eau de boisson et la garantie de son origine.» (Derache, 1997, p283) «La présence de nitrate dans l’eau traduit une pollution bactérienne intense en amont, provenant d’ailleurs, non pas tant des épandages agricoles et engrais nitratés mais surtout des lisiers des élevages et des déchets urbains.» (Derache, 1997, p291) Comly en 1945 avait également rapporté une importante contamination de l’eau de puits utilisée pour le biberon (240 coliformes / 100 ml). «Entre 1945 et 1985, 3 000 cas de Méthémoglobinémie ont été recensés dans le monde, dont plusieurs mortels. La grande majorité de ces cas sont survenus dans un contexte d’eau de puits fortement contaminée sur le plan microbiologique. L’eau était utilisée telle quelle pour la préparation du biberon lacté. L’incident de cet événement aigu a très fortement décru dans les pays industrialisés depuis la fin des années 60, malgré l’augmentation lente mais régulière de la teneur en nitrates des eaux souterraines.» (Znisou, 1994, p 102) Les auteurs soulignent qu’il est difficile d’attribuer l’évolution favorable en matière de fréquence de la méthémoglobinémie à l’un plutôt qu’à l’autre de ces deux phénomènes concomitants et ne pas sous estimer le fait que le recours à l’eau du robinet pour les nourrissons est de plus en plus rare. Comme le soulignent R. et P. Derache, le capital nitrate dans l’organisme est assuré à la fois par un apport exogène avec les aliments et l’eau ingérée et par une biosynthèse endogène du monoxyde d’azote. Chez l’homme cette biosynthèse semble deux fois plus importante que l’apport par les aliments. Les nitrites ne présentent donc aucune toxicité et font partie du métabolisme normal de l’organisme. Et les deux auteurs de conclure: «Il est donc inutile de fixer une Dose Journalière Admissible et encore moins une limite maximale de résidus, d’autant plus qu’elles créent une méfiance vis à vis d’aliments recommandés par la diététique comme les légumes ou les fruits.» (Derache, 1997, p292) Ils reprennent ainsi les arguments présentés par J. L’Hirondel (1993) selon lequel «la discordance entre les nitrates des légumes et la D.J.A. pose un problème. L’abondance des nitrates dans certains légumes, tels les salades et les carottes, est une loi naturelle. Etant donné qu’il n’est pas possible d’imposer aux légumes de se confronter à la D.J.A., il semble plus simple et plus logique de demander à la D.J.A. de se confronter aux lois de la nature. Pourtant la Direction générale de la Santé a publié une enquête portant sur les doses de nitrates contenues dans les repas de restauration collective ( premier trimestre 1992) concluant sur l’aspect préoccupant et la nécessité d’adopter «une démarche préventive» pour réduire les apports nitratés de l’alimentation. De même le Conseil supérieur d’hygiène publique de France publie le 7/01/1992 un avis dans lequel il suggérait «la mise en oeuvre de certifications de qualité des légumes avec la teneur en nitrates comme l’un des critères retenus». (Que choisir ? juin 1992, p.25 à 27). La Société Française de Santé Publique avait fait le constat après le colloque de Rennes que la situation vis à vis des végétaux et du risque de méthémoglobinémie était loin d’être clairs et proposait la mise en place d’un programme national de surveillance en trois points :

       _ compléter les informations fournies par l’enquête de la Direction Générale de la Santé,

       _ mettre en place un système d’auto contrôle par les industriels et les grossistes des produits alimentaires avant leur mise sur le marché,

       _ organiser un suivi périodique par les pouvoirs publics des végétaux qui concentrent le plus les nitrates notamment dans le circuit de distribution des produits frais.

      En ce qui concerne la métabolisation des nitrates dans le tube digestif et le risque cancérigène dû aux nitrosamines, R. et P. Derache, sans nier ce risque, pensent qu’il est cependant permis de douter fortement de la réalité de la formation et des effets des nitrosamines dans des conditions normales d’alimentation. (1997, p287) Jean et Jean-Louis L’Hirondel respectivement professeur de Clinique Médicale Infantile au CHU de Caen de 1962 à 1982 et praticien hospitalier au même CHU, concluent le chapitre consacré aux griefs contre les nitrates par une réfutation : «Les études expérimentales et épidémiologiques montrent que les nitrates de l’alimentation n’augmentent ni le risque d’apparition des cancers en général, ni celui d’un cancer en particulier... Les connaissances scientifiques conduisent donc à la conclusion suivante : que l’on envisage le court, le moyen ou le long terme, les nitrates de l’alimentation et des eaux de consommation n’ont aucune répercussion négative sur la santé de l’homme». (L’Hirondel, 1996, p. 69 - 70) L’avis du Comité Scientifique de l’Alimentation Humaine sur les nitrates et les nitrites (Commission européenne) émis le 22/09/95 reconnaît le fait que d’une manière générale, les études épidémiologiques approfondies sur les nitrates ont échoué leur démonstration d’une association avec un risque cancérigène chez l’homme. Le comité confirme néanmoins la D.J.A. des nitrates telle qu’elle a été établie précédemment (par les directives OMS - FAO en 1962 et par décision du même Comité Scientifique de l’Alimentation Humaine (CSAH) de la Commission des Communautés européennes en 1990) et son application à toutes les sources d’exposition alimentaire.

      

      Pour les institutions (OMS, Commission européenne...) les nitrates sont responsables de méthémoglobinémie et suspectés d’être cancérigènes. Ils sont également tenus responsables de l’eutrophisation des plans d’eau et des rivières. Pour les producteurs et utilisateurs d’engrais, les nitrates font partie incontournable du cycle de l’azote dans la nature et aucune preuve de leur nocivité n’a été apportée, bien au contraire l’emploi de nitrates tenant une place essentielle dans la surabondance de la production agro-alimentaire et dans la lutte contre la faim dans le monde. Selon J. et J.L L’Hirondel «quoique dépourvues de valeur scientifique, ces décisions et directives de l’O.M.S. et de la C.E.E. n’ont suscité aucune décision véritable ; pourtant indirectes ou directes, leurs répercussions sur nos sociétés sont considérables. Elles ont indirectement contribué à étayer et renforcer la suspicion qu’entretiennent nos contemporains à l’égard de l’eau du robinet. On sait qu’en France la désaffection vis à vis de l’eau de distribution publique est forte, un quart des consommateurs préfèrent se tourner vers les eaux embouteillées» et de conclure : «Les décisions et directives des experts de l’O.M.S. et de la C.E.E. ont, en une quinzaine d’années d’application, coûté cher, tout en étant totalement inutiles. Leur nocivité est toujours d’actualité. Elles continuent à coûter cher, elles coûtent même de plus en plus cher, et restent totalement inutiles.» (l’Hirondel, 1996, p.78 - 79) Selon Mme Rizet, Ingénieur, chef de service du laboratoire d’analyse de la Société des eaux du Nord à Lille, si la D.J.A. associée aux nitrates ne se justifie pas d’un point de vue toxicologique, l’excès de nitrates dans la nappe phréatique permet de suspecter la présence de produits phytosanitaires, micro polluants suscitant peur et inquiétude alimentées par le manque de données épidémiologiques et par notre dépendance à leur égard.

      

      

      

       2.1.3. Pesticides et eau du robinet

      

       La France est derrière les Etats-Unis le deuxième consommateur mondial de pesticides. Les produits phytosanitaires ou pesticides regroupent différentes catégories de produits chimiques utilisés en agriculture pour contrôler les différentes espèces animales ou végétales susceptibles (ou suspectées) d’être nuisibles à l’homme et à son environnement. L’agriculture est le principal utilisateur de pesticides mais non le seul. Les services publics, les collectivités locales et les particuliers en font également usage pour l’entretien des jardins publics, des bordures de voiries ou des jardins privatifs.... Ainsi le Round-Up (glycophosate) herbicide total produit par le groupe chimique et biotechnologique Monsanto est utilisé par de nombreux jardiniers. L’objectif de cette société est de convaincre les populations par le biais de campagnes de publicités que contrairement aux autres produits, cet herbicide est sans aucun risque ni pour l’environnement, ni pour la santé de l’homme. « Pourtant, une enquête menée par The Guardian et publiée par Courrier International, nous apprend qu’en juin 1997, à New York, le représentant du ministère public a obligé Monsanto à retirer les publicités affirmant que le Round-up était biodégradable et respectueux de l’environnement. De plus, d’après le département de Santé publique de l’université de Californie, le glyphosate serait la troisième cause de maladies liées aux pesticides parmi les agriculteurs ». (Faverger, mai 1998, p20)

      

      Selon la nature du «nuisible» visé, on distingue outre les herbicides :

       _ les insecticides,

       _ les acaricides : acariens,

       _ les aphicides : pucerons,

       _ les larvicides : larves,

       _ les fongicides,

       _ les nématicides : vers parasites,

       _ les molluscides : limaces,

       _ les helicides : escargots.

      

      L’hétérogénéité de ce vaste ensemble rend difficile toute classification et toute étude exhaustive concernant leur éventuelle toxicité.

      

      

      Pesticides et santé: une toxicité difficile à prouver.

      

       L’organe de l’Américan Chemical Society écrivait en avril 1973 : «les pesticides chimiques ont un grand nombre de défauts. Les nuisibles y sont devenus résistants. Leur efficacité étant temporaire, il faut répéter plusieurs fois les épandages. Leurs résidus peuvent être persistants et contaminer les récoltes. Les pesticides perturbent les contrôles naturels, provoquant même les pires infestations. Ils peuvent porter atteinte aux organismes non visés tels que l’homme et ses animaux domestiques...». Aujourd’hui (1986), les progrès de la recherche, l’utilisation des méthodes de contrôle intégré, la législation et l’action des environnementalistes ont permis de réduire l’impact des pesticides dans les pays industrialisés.» (Bouguerra, Professeur à la faculté des sciences de Tunis, Directeur de recherche associé au C.N.R.S., avril 1996, p.546).

      La toxicité des pesticides dépend d’un certain nombre de facteurs :

      _ la nature de la substance,

      _ les formes et les conditions d’utilisation: gaz, liquide, solide,

      _ les moyens d’application,

      _ le mode de pénétration : voie cutanée, respiratoire, digestive,

      _ le devenir du produit dans l’organisme : élimination, détoxification, métabolisation, stockage.

      Certains pesticides sont responsables d’intoxications aiguës : allergies, troubles digestifs, respiratoires, neurologiques... Mais concernant la consommation d’eau potable ce sont les effets à long terme des doses infimes des pesticides qui nous questionnent. Des études réalisées en 1973 par David Pimentel révèlent que les pesticides peuvent provoquer des perturbations de l’activité électrique du système nerveux central, induisant des altérations neurologiques. J.L. Radomski et ses collègues (1968 - 1984 - 1985) les ont associés à l’hypertension, à la cirrhose portale du foie et au ramollissement cérébral. (Bouguerra, avril 1996, p.545 à 553) La F.A.O. (Organisation des Nations Unies pour l’Alimentation et l’Agriculture) et le P.N.U.E. (Programme des Nations Unies pour l’Environnement) viennent d’ajouter cinq nouveaux pesticides à bases d’organophosphates à la liste de surveillance des produits estimés dangereux pour la santé humaine. Ils sont «considérés comme fortement toxiques, même par voie cutanée, dans les conditions d’utilisation observées dans les Pays en voie de développement.» (Valeurs vertes, déc. 1997) Deux enquêtes épidémiologiques récentes mettent en évidence une corrélation significative entre l’utilisation des pesticides et les cancers développés par les agriculteurs. (Professeur Viel, responsable du département de santé publique de la faculté de médecine de Besançon et J. Clavel de l’unité 170 de l’I.N.S.E.R.M. à Villejuif) (Bubrana, juin 1995). Certains pesticides organochlorés (dieldrine, dichlorodiphényl trichloroéthane-DDT) sont des perturbateurs endocriniens car ils miment les oestrogènes (hormones femelles). Ils provoqueraient des troubles de la fertilité masculine et pourraient interférer avec le processus physiologique de masculinisation (provoquant par exemple des cryptorchidies). Les effets potentiels de ces perturbateurs endocriniens sur la santé humaine sont sujets à controverse et en dehors du dibromochloropropane-DBCP (nématocide) et de situations accidentelles (riz contaminé par du DBCP), une relation causale entre exposition à une substance spécifique et effets néfastes sur la santé humaine via un mécanisme de perturbation endocrinienne n’a pas encore était établie. Néanmoins, la question du rôle des facteurs environnementaux est posée au sujet de la diminution constatée depuis 50 ans du nombre de spermatozoïdes et de la qualité du sperme de 1,5 % par an aux Etats-Unis et de 3 % en Europe. En effet, il est possible de mettre en évidence de telles anomalies chez le rat en lui administrant certains perturbateurs endocriniens à des doses que l’on peut retrouver dans l’environnement. Chez les agriculteurs manipulant des pesticides, le cas le plus connu est celui de l’exposition au DBCP. « Ce nématocide a entraîné chez les ouvriers de bananeraies, une baisse de la quantité de sperme, une augmentation du taux de FSH ( Follicle, stimilating hormone) et du ratio testostérone/gonadotrophine avec une relation dose-effets; ces anomalies semblent réversibles ; une modification du sex-ratio a été notifié; ce produit est maintenant interdit presque partout. Un fongicide, le Vinclozolin a entraîné les mêmes effets. L’O.M.S. établit des recommandations substance par substance au vu des données toxicologiques, ne tenant pas compte ni de la diversité des molécules ni des combinaisons possibles entre celles-ci. Souvent diffus, difficiles et coûteux à traiter et à mesurer, même si les méthodes chromatographiques à haute résolution sont capables de détecter d’infimes quantités de pesticides, ceux-ci restent relativement mal connus. En 1996 V. Tardieu ( juillet 1996) révélait que l’OMS n’avait étudié la toxicologie que d’à peine une quarantaine de molécules alors que 900 étaient autorisées en France. De plus l’OMS dispose à l’heure actuelle de fort peu de données épidémiologiques qui permettraient d’évaluer les effets des pesticides sur la santé car mettre en évidence le rôle des faibles doses de perturbateurs endocriniens dans des populations exposées de façon prolongée n’est pas une chose aisée. Ils existe néanmoins de nombreuses études américaines qui poussent à s’interroger sur ce problème de santé publique. En 1993 Bill Clinton a proposé une réforme de la législation sur les pesticides visant à réduire les quantités utilisées et à introduire de nouvelles normes de contrôle. En 1990, 38 % des aliments analysés aux Etats Unis contenaient des résidus de pesticides. Un puits d’eau potable sur dix contient des résidus d’au moins un pesticide. La cour d’appel de San Francisco (confortée par une décision de la cour suprême) a en 1993, à la demande des écologistes, condamné la notion de «risque négligeable». Cette notion était appliquée depuis 1989 par l’Agence de protection de l’Environnement (E.P.A). «Est considéré comme négligeable un cas de cancer pour un million de personnes exposées à un résidu de pesticide sur une durée de vie de 70 ans». «...L’E.P.A. prit la liberté d’autoriser, sur la base de la notion de «risque raisonnable d’innocuité», l’application de certains pesticides (utilisables à plus faibles doses) potentiellement cancérigènes...» ( Bouguerra, septembre 1995).

      

      

      Pesticides et normes de potabilité

      

       Sur ce sujet également nous assistons à une bataille des normes. Alors que pour l’OMS, les valeurs guides s’échelonnent entre 0,03 et 100 µg/l pour l’ensemble des pesticides, la communauté européenne a fixé à 0,1 µg/l la concentration maximale pour chaque type de pesticide identifié et à 0,5 µg/l la concentration totale en pesticides, la directive européenne intégrant la volonté de protéger le milieu naturel. En 1980, elle correspondait au seuil de détection des appareils d’analyse. Les détracteurs de cette position estiment que les progrès des mesures auraient du permettre d’envisager d’abaisser la norme. De plus il apparaît être illogique de fixer une même norme quel que soit le pesticide incriminé car certains comme l’atrazine (l’herbicide le plus utilisé en France dans la culture du maïs) sont nocifs sous la limite de 0,1 µg/l alors que d’autres ne menacent pas la santé humaine à 90 ou 100 µg/l. Constatant la très faible fréquence des contrôles effectués par les DDASS (Direction Départementale de l’Action Sanitaire et Sociale) et des autocontrôles effectués par les distributeurs concernant les produits phytosanitaires (Rappelons que la recherche de nitrates coûte environ 6∈ par échantillon alors que celle concernant l’atrazine est estimée à 122∈ par échantillon.), l’Union Fédérale des Consommateurs Que choisir a décidé d’analyser l’eau distribuée dans 150 communes réparties dans 50 départements, en priorité dans les régions à activité agricole importante. «Résultat : on trouve des pesticides presque partout. Sur les 151 échantillons envoyés en laboratoire, 118 comportaient des traces de pesticides, avec dans 34 cas des teneurs supérieures à la norme ! » ( Chesnais, septembre 1997) « 80 communes du Gers ont été invitées lundi 22 mai dernier (2000) à ne plus consommer d’eau du robinet. Des analyses ont démontré des taux de pesticides supérieurs aux normes. Le produit incriminé est l’atrazine, un produit répandu par les agriculteurs pour protéger les semis de printemps. La préfecture a aussitôt déclaré l’eau impropre à la consommation. La tryazine, un pesticide utilisé dans les champs de maïs, avait été à l’origine, la semaine précédente, d’un autre problème dans les communes des Hautes-Pyrénées. Plus généralement, le journal Le Monde du 24 mai précise qu’un rapport du Fonds mondial pour la nature (WWF) constate une dégradation de la qualité de l’eau, dans onze départements français. Il conclut à une présence de plus en plus importante d’atrazine dans les eaux brutes. La consommation française de pesticides ne cesse d’augmenter, la France est en tête des pays européens consommateurs de produits phytosanitaires. Les particuliers et les collectivités ne sont pas exempts de responsabilité. Les particuliers sont généralement peu conscients des risques de pollutions liés à l’épandage de pesticides. De plus sur le marché, les produits phytosanitaires bannis des gammes professionnelles, demeurent autorisées dans les produits destinés aux particuliers. Surdosages, traitements sans discernement et augmentation constante du nombre d’épandage expliquent la contamination fréquente des eaux souterraines par les pesticides.

      

      

      Des solutions à court et à long terme

      

       Plusieurs solutions sont envisagées pour limiter et/ou éliminer la pollution par les produits phytosanitaires. D’ores et déjà certaines DDASS ferment les captages contaminés ou exigent l’interconnexion des réseaux, ce qui permet de diluer les polluants. Mais ces deux solutions sont forcément limitées. Les captages ne sont pas en quantité illimitée. Le dossier pesticides concerne trois ministères : Environnement, Agriculture, et Santé. Lorsque l’interdiction d’une substance est envisagée il y a querelle d’experts sur sa toxicité et son impact. Néanmoins, le lindane (insecticide du maïs et autres cultures) sera interdit en agriculture le 1er juillet 1998, les doses d’emplois de l’atrazine et de la simazine (herbicide de la vigne) devront être réduites de 33 % par hectare. (Mesures prises lors de l’élaboration du «plan d’action pour produire plus propre» en début d’année 1997). A l’échelon national, le Comité interministériel pour la réduction de la pollution des eaux provenant des activités agricoles élabore des recommandations tandis qu’au niveau régional, les préfets ont reçu des consignes pour créer des commissions regroupant différents services de l’état (ceux des trois ministères concernés), les utilisateurs de produits phytosanitaires ainsi que les responsables. Ces commissions ont pour mission de cibler les produits à analyser et de prendre les mesures de protection et de prévention qui s’imposent. Mais seul un changement des politiques agricoles :

       désherbage mixte (mécanique et chimique),

       éloignement des cultures consommatrices de pesticides des cours d’eau et champ captants,

       respect des réglementations concernant les produits à risques ou les produits prohibés,

       peut venir à bout de cette pollution. «La Suède, le Danemark, la Hollande et l’Ontario au Canada ont réussi depuis 1989 ou 1991 à diminuer de 50 % les quantités de pesticides utilisées, sans que ne s’effondrent les rendements agricoles.» (Bouguerra, septembre 1995) Le rapport sur la qualité de l’eau potable en France publié en avril 1996 par le ministère de la santé (rapport d’enquête sur les paramètres microbiologiques, les nitrates, l’aluminium, le fer et le fluor sur les années 91, 92, 93) met en évidence une spécificité typiquement française : l’émiettement de la distribution (25 408 unités recensées alors que le pays compte quelques 36 000 communes). Il est à noter que ce rapport, ne portant que sur les unités de distribution desservant plus de 5 000 habitants (soit 42,8 millions de français), ne représente que 8,2 % des captages. La qualité de la ressource en eau potable en milieu rural est donc une «boîte noire». Certaines DDASS n’ont fourni aucune donnée à cette enquête (Ardèche, Corse du Sud, Var, Vendée) et toutes les DDASS n’avaient pas les mêmes systèmes informatiques ni les mêmes méthodes de surveillance. (Chauveau, février 1997)

      

      

      

       2.1.4. Qualité microbiologie et protection des captages

      

       Ce rapport permet donc simplement de formuler des hypothèses quant à la qualité des ressources en eau potable. Il confirme les taux excessifs de nitrates auxquels sont exposés pendant 150 jours par an la population desservie par 133 unités de distribution réparties dans 33 départements. 58 % de ces unités de distribution étant concentrées dans 9 départements (de Bretagne, Nord Picardie et du Centre Ouest). Autre souci, selon ce rapport dans les communes de plus de 5 000 habitants, entre 1991 et 1993, 3,5 millions de personnes ont été exposées au moins une fois à une eau non conforme sur le plan bactériologique et 1 860 000 personnes étaient confrontées à des dépassements réguliers (Tardieu, juillet 1996) D’après l’Ifen (Institut français de l’environnement), le nombre de personnes ayant consommé une eau contaminée ponctuellement (essentiellement par de streptocoques fécaux et des coliformes) est passé de 13 millions en 1995 à plus de 17 millions en 1997. (Nadeau-Cuchet, octobre 1998) La pollution microbiologique détectée met en évidence l’absence de périmètres de protection des captages (plus ceux-ci sont petits, plus les dépassements de normes sont fréquents).Ces périmètres de protection sont obligatoires depuis un décret du 30/10/1935. La loi du 16/12/1964 a lancé en vain un coup de semonce car rien n’a encore été fait. La loi de 1992 réaffirme l’obligation en fixant une date limite (04/01/1997) pour que les communes se mettent en conformité. A cette date, à peine ¼ des captages avaient effectivement leur périmètre de protection. (Chauveau, février 1997). Au demeurant ces chiffres surestiment les dispositifs mis en place car ils recensent les périmètres dotés d’une existence administrative et réglementaire donc les périmètres sur papier. De plus les règles prescrites ne font souvent l’objet d’aucun suivi et encore moins de contrôles. Il est sûr que la procédure à engager est contraignante mais surtout, lorsqu’on envisage une protection maximale, celle-ci a un coût pour :

       _ payer le changement de culture,

       _ promouvoir de bonnes pratiques agricoles,

       _ supprimer les élevages hors sol,

       _ restaurer des zones humides,

       _ compenser l’absence d’implantation industrielle,

       _ mettre en conformité les installations et activités polluantes.

      En zone rurale, les chambres d’agriculture y sont hostiles, en ville, l’urbanisation passe avant la protection des captages. De plus les tracés autoroutiers ou ferroviaires font parfois peu de cas de la protection des ressources en eau. Pourtant, la nouvelle directive « eau potable » n’a de sens que si l’on protège la ressource en eau par un espace délimité dont la superficie est déterminée au cas par cas en fonction du contexte hydrogéologique : du périmètre de protection immédiat où toute activité est interdite au périmètre éloigné où les activités peuvent éventuellement être réglementées. Le taux faible de captages réellement protégés à l’heure actuelle s’explique donc par une absence de motivation politique des services de l’état (Ministères de la Santé et de l’Environnement) chargés de ce dossier. Et pourtant de manière générale quel que soit le polluant (nitrates, pesticides, phosphates...), protéger l’eau brute coûte de l’ordre du centime par m3, la traiter en usine, de l’ordre de l’euro.

      

      Les consommateurs des années 90 ont ainsi été mis devant un paradoxe en découvrant d’une part que l’eau avait un prix et que celui-ci était appelé à augmenter de manière sensible et continue et d’autre part en apprenant que bien souvent la qualité de l’eau potable n’était pas fiable.

      

      

       2.1.5. Prévenir la pollution des ressources en eau de consommation ou faire payer le consommateur?

      

       Depuis le début des années 80, on peut observer en France, une escalade technologique autour du traitement de l’eau, au prix d’une sévère augmentation des factures. La facture annuelle moyenne est passée de 1228 à 1973 F de 1991 à 1997 soit une augmentation de 60 % (pour une consommation de 120m3/an, selon une enquête du Ministère de l’Economie en 1998). En 1997 sur les 18,50 F TTC du prix du m3, c’est l’assainissement qui représente le poste le plus important devant la distribution de l’eau potable et la part revenant aux organismes publics dont l’Agence de l’Eau. En effet le décret du 03 juin 1994, relatif à la collecte et au traitement des eaux usées fixe l’échéance à laquelle les communes devront obligatoirement être équipées pour la collecte et/ou le traitement des eaux usées (au plus tard le 31.12.2005). Ainsi en 2005, 80 % des habitations françaises devront voir leurs eaux usées parfaitement traitées. La direction de l’Eau estimait en 1996, que les investissements annuels à envisager de 1997 à 2005 seraient de l’ordre de 14 milliards de francs. Cette évaluation étant à corriger à la hausse si des normes plus sévères étaient adoptées. Le décret de 1994 définit également des zones sensibles où la DBO5 (demande biologique en oxygène en 5 jours) produite est supérieure à 600 kg/j et où des traitements plus rigoureux concernant l’azote et le phosphore doivent être respectés. Lors de la révision du zonage (J.O du 21.10.99), 50 % de la surface du territoire français est classé zone sensible contre 40 % en 1994. Toutes ces agglomérations auront jusqu’au 31 août 2006 pour se mettre en conformité. « Si personne ne conteste la nécessité d’améliorer l’épuration des eaux usées, des voix s’élèvent pour remettre en cause ce matraquage des usagers. L’efficacité des 6 agences de l’eau, ces établissements publics qui prélèvent des redevances sur nos factures pour aider les communes à financer les installations antipollution, a été remise en cause dans un récent rapport du Commissariat général du plan. Les rapporteurs estiment que « le dispositif des agences n’est pas adapté pour atteindre au moindre coût les objectifs définis par les pouvoirs publics », les agences faisant « peu d’arbitrages en terme d’efficacité des fonds investis ». Bref, elles seraient peu regardantes sur l’utilisation de notre argent. Dommage, car si elles parvenaient à obtenir les mêmes résultats pour 10 % d’investissements en moins, 10 milliards de francs d’économie pourraient être dégagés en 5 ans. Le rapport épingle surtout la non-application du principe pollueur-payeur. Les agriculteurs paient trop peu, eu égard à la pollution engendrée par leur activité via les produits phytosanitaires, les lisiers, etc... «Ceux qui irriguent sont soumis à redevance, de même que les éleveurs qui n’ont pas fait le nécessaire pour réduire les rejets de leur exploitation, explique Patrick Février, de la direction de l’eau, au ministère de l’environnement. Mais ces redevances ne sont pas assez dissuasives. En outre, certaines cultures polluantes comme les céréales, n’y sont pas assujetties. » Dominique Voynet, ministre de l’Environnement, a donc promis de réfléchir à une meilleure application du principe de pollueur-payeur. Elle pourrait passer par une taxation spéciale des engrais et pesticides, ces recettes servant à financer la réduction de la pollution agricole à la source. Jusqu’ici, on a préféré guérir plutôt que de prévenir. Par exemple, en construisant, au frais des usagers, d’onéreuses usines de dénitrification, propres à débarrasser l’eau des nitrates, plaies de l’agriculture intensive. Cela dit, les fonds investis pour obtenir une eau plus pure n’expliquent pas à eux seuls la hausse des tarifs. Depuis une quinzaine d’années, de nombreux élus ont choisi de déléguer leur service d’eau et d’assainissement à une des trois entreprises privées qui tiennent ce secteur. Les conséquences sont claires. «Cette concentration est vraisemblablement responsable d’une partie de la dérive du prix de l’eau, remarque le Commissariat général du plan. Les distributeurs d’eau, qui de surcroît contrôlent les sociétés d’études, ont intérêt à ce qu’on dépense beaucoup dans ce domaine. » Quant à la Cour des comptes, dans un rapport rendu en 1997 et émaillé de récits affligeants sur la gestion catastrophique des services d’eau dans des dizaines de communes, elle aboutit aux mêmes conclusions. Certes elle n’épargne pas les services en régie (gestion directe), reprochant à certains leur manque de rigueur et leurs négligences, l’inadaptation des travaux, la présence d’un personnel pléthorique et peu qualifié. La Cour n’en précise pas moins que, dans la plupart des cas, « la hausse du prix est bien à mettre en relation avec la délégation du service » à une entreprise privée. Pour expliquer cette relation, certains invoquent directement la corruption des élus. De fait, les noms des « majors » de l’eau et de leurs filiales sont apparus ces dernières années dans de nombreuses affaires politico-financières. D’autres pratiques propres aux délégations de service ont aussi joué comme l’habitude prise par les concessionnaires de confier les travaux à leurs filiales, sans mise en concurrence. Ainsi en cause les « droits d’entrée » (300 millions de francs à Grenoble, 400 à Saint-Etienne, 437 à Toulouse) payés par le délégataire (celui qui obtient le marché de l’eau) pour renflouer les finances de la commune, l’entreprise récupérant ensuite la mise sur la facture des usagers. Un montage désormais interdit. » (Maleyson, sept. 1998) La gestion de l’eau se fait différemment d’une commune ou d’une collectivité intercommunale à une autre. La gestion peut-être publique (gestion directe) ou déléguée à une entreprise privée. Dans ce cas, la commune peut être propriétaire des installations (gestion déléguée en affermage) ou non (gestion déléguée en concession). En 1995 seulement 20 % de la population était desservie en eau potable par une régie directe. La Compagnie Générale des Eaux (devenue Vivendi puis Vivendi Environnement) assurant 40 % de la gestion de l’eau, la Lyonnaise des Eaux 18 %.

      Les traiteurs d’eau investissent dans la recherche et dans l’application de nouveaux outils qui permettront quelle que soit la qualité de l’eau de ressource, de la potabiliser. « Ainsi le district de Guingamp, dans les Côtes-d’Armor, va investir onze millions de francs pour moderniser son usine d’eau potable et lui ajouter un système de filtration sur charbon actif. Certes le but est aussi d’améliorer la qualité gustative de l’eau au robinet. Mais l’Association eaux et rivières de Bretagne souligne le paradoxe de cette situation où l’usager va payer alors qu’aucune action de prévention n’est menée à proximité du Trieux, la rivière où l’eau est pompée, pour réglementer l’usage de pesticides. Pourtant, des industriels aux agriculteurs, tous les acteurs de la filière phytosanitaire se sont rassemblés dans Phyto Mieux, un collectif créé sur le plan national pour pousser les agriculteurs à traiter en respectant l’environnement. La filière espère ainsi éviter les écotaxes coûteuses. » (Que choisir ? juin 1998) Les sociétés de traitement de potabilisation, publiques et privées, se livrent à une concurrence acharnée, des progrès remarquables ont été accomplis lors de la dernière décennie, tant au niveau de la détection des polluants (et de leurs sous-produits indésirables engendrés par les procédés de traitement) que de leur élimination. Cette bataille commerciale est parfaitement illustrée par l’exemple du traitement de l’eau par filtration en vue d’éliminer entre autres les pesticides. La filtration est un procédé qui consiste à faire passer un mélange solide-liquide au travers d’un milieu poreux (le filtre) qui retient les solides et laisse passer le liquide (le filtrat). Différents procédés de filtration sont utilisés pour purifier l’eau: filtration sur milieu granulaire fin (sable), filtration sur charbon actif en grains ou encore filtration sur membranes. Les membranes de filtration peuvent être classées en fonction de la taille des constituants à éliminer :

       _ Microfiltration : macromolécules (de 0,1 à 1 µm, bactéries et microalgues),

       _ Ultrafiltration : molécules (de l’ordre de 0,01 µm),

       _ Nanofiltration :  ions (0,001 µm).

      L’ultrafiltration permet donc de retenir matières en suspension (acides humiques par exemple) et virus alors que la nanofiltration est capable d’éliminer les matières organiques dissoutes dont la plupart des pesticides et d’adoucir l’eau surtout lorsqu’elle est combinée avec un traitement sur charbon actif en grains piégeant les particules. A la fin des années 1980, la Lyonnaise des Eaux s’est lancée dans l’ultrafiltration alors que la Générale des Eaux exploitait quelques unités de microfiltration et pariait sur la nanofiltration. Ces innovations techniques ont un coût qui se répercute sur la facture d’eau payée par le consommateur. L’investissement pour une nanofiltration est estimé à 10 à 12 millions de francs hors taxe et le coût direct de traitement de l’eau par ce procédé: de 2,5 à 3 F / m3. (Extrapolation réalisée par la Générale des eaux en avril 2000)

      

      Depuis quelques années, les traiteurs d’eau s’intéressent à la distribution de l’eau. En effet, la qualité de l’eau peut être notablement modifiée lors de son transport dans les réseaux. Ainsi, les contrôles sanitaires effectués par les DDASS (Directions Départementales de l’Action Sanitaire et Sociale) à la sortie des usines de traitement de l’eau se feront aussi pour une proportion minimale de 50 % des échantillonnages à l’arrivée dans les habitations, donc après transport dans le réseau à compter du 25.12.2003. (Crié, février 1997)

      

      

      

       2.1.6. Distribution d’eau potable et pollution au plomb

      

       Les réseaux de distribution représentent des investissements colossaux mais ils ont été considérés jusqu’à présent comme un moyen passif sur lequel il n’y avait pas beaucoup à intervenir sur le plan actif quant à la qualité de l’eau. Le réseau de distribution de l’eau remonte parfois à 50 ans voire plus et cette vétusté a de multiples conséquences :

       _ environ 30 % de pertes,

       _ infiltrations d’eau non potabilisée dans le réseau à l’origine de nombreuses contaminations microbiologiques (la sécurité des réseaux n’est donc plus garantie),

       _ interaction entre l’eau et les matériaux à l’origine de la corrosion des matériaux et de leur biodétérioration et au relargage de plomb.

      De plus, le diagnostic de la qualité du réseau de distribution est pratiquement inexistant. les opérations de curage et les réparations se font généralement dans l’urgence sans programmation. Il apparaît donc être indispensable d’évaluer les investissements nécessaires pour les travaux d’entretien, le nettoyage et le remplacement des canalisations. En avril 2000 seuls 4 à 5 départements s’étaient lancés dans un état des lieux de leurs réseaux. Les contrôles au robinet du consommateur ne sont pas sans poser d’interrogations notamment en ce qui concerne la quantification du plomb hydrique. En effet, la quantité de plomb dans l’eau dépend de multiples paramètres :

       _ nature des tuyaux, des joints et des soudures (l’interdiction des canalisations en plomb date de 1995 et celle des soudures au plomb de 1996),

       _ état de la surface des tuyaux,

       _ température, pH, minéralisation de l’eau, débit de l’eau,

      et il est difficile de définir la notion «d’échantillon représentatif». Le plomb se combine avec l’eau et les substances dissoutes pour former une couche d’hydroxycarbonate de plomb à l’intérieur des canalisations. Plus l’eau est acide ou bicarbonatée calcique, plus cette couche qui évite le contact direct avec le plomb se dissout et libère alors des ions Pb toxiques. Une campagne d’inter comparaison de mesure du plomb hydrique conduite par la firme néerlandaise KIWA a permis d’effectuer des analyses sur une soixantaine de logements, dans sept pays européens en 1997 en respectant trois protocoles. L’objectif est de définir «l’échantillon représentatif» d’eau du robinet de l’Union qui ne devra pas dépasser une concentration de 25 µg de plomb par litre dans les 5 ans à venir et dans 15 ans être inférieure à 10 µg par litre. Dès 1992, à la suite d’études toxicologiques, l’OMS avait été amenée «à revoir la valeur limite admissible de la quantité de plomb ingérée chaque jour par l’organisme et donc à ajuster à 10 µg par litre la valeur guide de la teneur en plomb de l’eau». (Fekete, décembre 1997)

      

      

      

      Intoxication par le plomb

      

       La toxicité du plomb chez les travailleurs exposés est connue depuis longtemps et le saturnisme est reconnu comme maladie professionnelle. Plus récente est la découverte des effets toxiques d’une exposition à de faibles doses sur le système nerveux des enfants. Une partie du plomb (moins de 10 %, 90 % étant éliminé dans les fèces) est absorbée dans l’intestin et passe dans le sang où plus de 95 % du plomb sanguin est lié aux érythrocytes. 90 % du plomb absorbé est stocké dans les os, pour lesquels il a une grande affinité et où il suit le métabolisme du calcium. De plus, le plomb, pouvant traverser la barrière placentaire dès la douzième semaine de gestation, s’accumule dans le squelette. Le reste est disséminé dans les divers organes : cerveau, poumons, cœur, foie, reins... Les signes cliniques d’une intoxication aiguë au plomb se manifestent pour une plombémie supérieure à 400 µg par litre :

       _ lésions des tubules rénaux (parfois associées à une inflammation des articulations : la goutte) conduisant à des insuffisances rénales chroniques ;

       _ anémie en perturbant la synthèse de l’hémoglobine ;

       _ douleurs abdominales : «coliques de plomb» ;

       _ dégénérescence des neurones entraînant des lésions irréversibles du système nerveux : polynévrites, encéphalopathies avec un risque très important de décès.

      Les femmes enceintes, les nourrissons et les enfants sont des sujets particulièrement exposés au saturnisme. Pendant la grossesse, une partie du plomb stocké passe de la femme enceinte au foetus. A la naissance, l’organisme du nourrisson possède déjà une charge de plomb . Quand la mère allaite, le bébé reçoit un apport supplémentaire via le lait maternel. Si un adulte élimine 90 % du plomb qu’il ingère, l’enfant de moins de 6 ans n’en élimine que 50 %. (Chesnais, septembre 1999) La quantité de plomb maximale tolérée est actuellement fixée à 50 µg par litre de sang. «Des études toxicologiques américaines et européennes ont révélé qu’une exposition prolongée à des faibles doses de plomb peut entraîner des troubles du développement du système nerveux central (cerveau), des problèmes d’apprentissage, des déficiences intellectuelles chez les enfants. En 1974, quand l’OMS recommandait 50 µg par litre de plomb comme valeur limite, elle n’avait pas tenu compte de l’imprégnation des enfants. (Accumulation de plomb dans les os).» (Massis, février 1998) Le rapport de la Commission de toxico vigilance sur l’intoxication par le plomb chez l’enfant, (DGS, 1993) relate différentes études montrant qu’avec une concentration de plomb hydrique de 300 µg par litre, celui-ci peut inhiber l’activité de certaines enzymes et le métabolisme du calcium, freinant le développement intellectuel des jeunes enfants : chute de 4 à 10 points du quotient intellectuel, déficits d’acquisition, difficultés verbales et cognitives. A ce stade, le traitement par chélation s’impose. Il s’agit d’un médicament qui capte les particules de plomb dans l’organisme et qui les élimine par les reins. Prescrit par injection, il nécessite une hospitalisation. Selon l’OMS certains déficits apparaissent pour une plombémie égale ou supérieure à 30 µg par litre. C’est pourquoi en 1992, l’OMS a fixé à 10 µg par litre le taux de plomb autorisé dans l’eau potable. En deçà de cette concentration, l’enfant consommant régulièrement l’eau du réseau ne risque aucune accumulation de plomb dans son squelette.

      

      Pour s’aligner sur les valeurs limites du plomb hydrique recommandée par l’OMS, toutes les canalisations européennes en plomb devront être remplacées d’ici 15 ans. Le coût de cette mesure est estimé par la Commission européenne à 70 milliards d’écus (560 milliards de francs dont 120 milliards de francs pour la France). (Fekete, décembre 1997)

      

      

      Des solutions qui ont un coût

      

       En France, plus de 10 millions de logements sont concernés dont 70 % sont en Ile de France. Moins du quart du montant total sera à la charge des distributeurs d’eau ou des pouvoirs publics, le reste incombera aux propriétaires avec une moyenne de 10000 F par appartement. (« Il ne faut pas oublier que le changement de branchements anciens fait partie des obligations classiques d’entretien et de renouvellement d’un exploitant. Ensuite, la réfection des réseaux intérieurs - parfois centenaires ou plus - est l’occasion de rationaliser la consommation et sa répartition par logement et d’en finir avec les fuites qui alourdissent la facture. (Chesnais, septembre 1999) A Paris 38 % des branchements sont en plomb et 40 % des immeubles sont concernés. Une étude de la Direction générale de la santé menée en février 1995 a recensé les départements susceptibles de connaître des excès de plomb en raison de leur eau peu minéralisée et acide : 3,7 millions de personnes dans 70 départements étaient concernés. (Tardieu, juillet 1996) « La répartition géographique des sources de pollution par le plomb dans l’eau fait ressortir les régions d’ancienne industrie (Nord, pas de Calais, Ile de France, Rhône-Alpes), les concentrations industrielles plus récentes des estuaires et du bord de mer (basse vallée de la Seine, Bouches-du Rhône) ou les régions d’activités plus spécifiques (Bretagne, Aquitaine, dans l’agro-alimentaire ou l’industrie du bois et/ou du papier) » (Dangaix, septembre 1998). Autres alternatives: l’adjonction de phosphate afin de déposer un léger film dans les conduites qui empêchera l’eau d’agresser les canalisations ou encore la reminéralisation de l’eau, afin de la rendre plus douce et d’empêcher la dissolution du plomb. On ne s’étonnera donc pas que cette nouvelle norme proposée par l’OMS et la Commission européenne soit jugée en France aussi excessive, qu’inopportune. Ses détracteurs estiment que les connaissances actuelles sur les risques sanitaires que font courir les faibles doses de plomb hydrique ne permettent pas de fixer un seuil de danger pour l’homme. Il est vrai que le risque potentiel est difficilement quantifiable car variant d’un individu à l’autre et surtout parce qu’il nécessite une exposition prolongée. Néanmoins, le saturnisme infantile est réellement un problème de santé publique en France. Le dépistage basé essentiellement sur des mesures biologiques (plombémie, plomburie) a été effectué tout d’abord en PMI puis a été développé dans le cadre de plan de prévention associant à l’échelle du département: DAIS (Direction Départementale des Affaires Sanitaires et Sociales), DDE (Direction Départementale de l’Equipement et l’Agence Nationale pour l’Amélioration de l’Habitat) (circulaire du 01.12.1993 relative à l’intoxication au plomb chez l’enfant)

      

      Il est utile de souligner que le plomb hydrique n’est pas la seule source du saturnisme infantile, celle-ci venant aussi des peintures au plomb qui recouvrent les murs des logements anciens, souvent insalubres. (les enfants s’intoxiquent en ingérant des «écailles» de peinture. Selon les estimations du ministère de la Santé, en France, 150 000 à 200 000 enfants seraient exposés au risque de saturnisme liés aux peintures au plomb. De plus, le plomb ingéré provient aussi des aliments solides (pour plus de 50 %), un quart étant apporté par l’eau potable et le reste par la pollution atmosphérique (particules émises par l’automobile). Les aliments sont contaminés par les retombées des particules de plomb provenant des automobiles (le plomb tétraéthyle et le plomb tétraméthyle sont des additifs antidétonants des carburants) et des usines (depuis le début des années 80, des enquêtes successives ont révélé une pollution par le plomb sur environ 45 km² autour de l’usine Métaleurop de Noyelles Godault (Bassin minier du Pas-de-Calais). Certaines des terres polluées par le plomb sont cultivées et les habitants des communes jouxtant l’usine, non seulement inhalent le plomb mais ingèrent également des aliments contaminés à travers la chaîne alimentaire. La mise en place d’un plan d’Intérêt Général concernant trois communes devrait être mis en place en 1998 et donner lieu enfin à des mesures concrètes afin de limiter le risque de saturnisme. (Le 23 rue Gosselet, décembre 1997) Des agents de la DDASS peuvent effectuer une enquête environnementale au domicile de l’enfant. Celle-ci débouche souvent sur des conseils d’éducation sanitaire, voire une réhabilitation de l’habitat ancien. La circulaire DGS/VS3.SP2/93/N°73 du premier décembre 1993 a invité les DDASS à engager avec leurs partenaires locaux des actions pour lutter contre l’intoxication par le plomb chez l’enfant. La mobilisation et la sensibilisation de l’ensemble des intervenants ont été imposées par le financement d’actions de formation, de dépistage et d’enquêtes environnementales au domicile de l’enfant à la recherche des sources de plomb. Le rôle de l’Etat, indépendamment des crédits qu’il apportait, était d’inciter les partenaires à s’engager dans cette démarche en démontrant l’efficacité des dispositifs mis en place. Selon la mise à jour du 14 janvier 1998 du bilan de « surveillance du saturnisme infantile en France » du Réseau National de Santé Publique pour les départements 75, 92, 93, 94 et 69 entre 1992 et 1997, 21,5 % des enfants examinés (8750 au total) présenteraient une plombémie supérieure à 150 µg/l (intoxication avérée). Les autres départements sérieusement touchés par des intoxications sont, dans l’ordre, le Nord, les Yvelines, les Bouches du Rhône et le Pas-de-Calais. L’origine de ces contaminations reste mal définie, air pollué par les rejets industriels, peinture à la céruse.... mais l’eau du robinet y contribue aussi.

      

      Pour l’usager X, la principale préoccupation est de disposer d’eau à son robinet en toutes circonstances mais généralement peu lui importent les moyens par lesquels elle parvient jusqu’à lui. C’est à lui pourtant d’effectuer la demande de diagnostic au syndic en habitat collectif ou en faisant quantifier la teneur en plomb de son eau. (Que Choisir propose un test pour une vingtaine d’euros)

      

      

      C’est au consommateur d’agir

      

       Si la teneur en plomb est supérieure à la teneur légale de 50 µg/l, l’eau du réseau n’est pas potable. Si le branchement public est en plomb alors les demandes de mesures sont à adresser au préfet, au maire et au distributeur. Tant que la situation ne sera pas améliorée, il est possible de suspendre le paiement de ses factures d’eau en bloquant la somme due sur un compte à part pour preuve de bonne volonté. Si le réseau public ne comporte pas de plomb alors les conduites intérieures du logement sont en cause. Il faut alors prévenir les propriétaires afin qu’ils engagent les travaux nécessaires. Si la teneur en plomb est comprise entre 25 et 50 µg/l, il faut écrire au maire et au distributeur afin de réclamer une eau qui n’excède pas 25 µg puisque cette valeur est la limite légale à ne pas dépasser depuis décembre 2003. Enfin, si l’eau contient de 10 à 25 µg/l de plomb, elle est déconseillée aux enfants et aux futures mamans (limite légale en 2013). Les propriétaires peuvent dès à présent bénéficier d’aides classiques comme le crédit d’impôts pour travaux d’entretien ou des aides de l’Agence Nationale pour l’Amélioration de l’Habitat. Lorsque la Directive CEE de 1998 sera traduite en droit français, les Agences de l’eau pourront être amenées à participer. Les propriétaires devront veiller à ne pas se laisser abuser par des professionnels peu scrupuleux qui préconiseront de changer l’ensemble des conduites. En attendant le changement des conduites qui desservent la cuisine, il est possible de réduire les teneurs en plomb :

      _ en ne buvant pas la première eau tirée au robinet qui a stagné toute la nuit dans les conduites,

      _ en attendant que l’eau soit fraîche, signe que les conduites ont été purgées,

      _ en ne cuisinant jamais avec de l’eau tirée chaude au robinet car une température élevée accentue la dissolution du plomb.

      (Chesnais, septembre 1999)

      

      Quand on parle de la qualité de l’eau, on se réfère essentiellement à deux aspects : celui de la santé et de l’hygiène et celui du confort et du plaisir. Ainsi nous avons abordé précédemment plusieurs paramètres concernant la présence de substances indésirables ou toxiques (nitrates, plomb, pesticides) et la qualité microbiologique de l’eau. La recherche du confort et du plaisir peut paraître secondaire par rapport à l’impératif sanitaire. Cependant, elle est devenue essentielle dans un pays où les consommateurs sont habitués au confort de « l’eau au robinet » et  au  « tout à l’égout ». Les principales préoccupations formulées par les utilisateurs à l’égard de l’eau qui leur est distribuée portent sur sa saveur (le goût de chlore) et sa dureté (la présence de calcaire).

      

       2.1.7. L’eau du robinet: trop dure et au goût de chlore !

      

       Le chlore est un agent désinfectant qui peut être utilisé en tête et en cours de traitement pour améliorer la biodégradabilité de certaines molécules organiques, pour éliminer certains micro polluants (toxiques et/ou responsables de goûts et d’odeurs désagréables) et certains indésirables (fer, manganèse, ammonium...) et bien sûr comme barrière désinfectante (neutraliser les virus et bactéries pathogènes). Cette désinfection peut être effectuée par des agents chlorés (chlore gazeux, hypochlorite de sodium, bioxyde de chlore) mais aussi par l’ozone (gaz oxydant), des rayonnements Ultra-Violets ou par des procédés de filtration membranaire. Mais la désinfection qui se pratique en fin de traitement doit aussi assurer le maintien dans le réseau de distribution, d’un résiduel bactériostatique destiné à éviter la prolifération de micro-organismes tels que des bactéries banales à partir du carbone organique dissous.

      

      

      Un goût de chlore!

      

       Parmi les différentes techniques de désinfection employées, seule la chloration a un pouvoir rémanent permettant de garantir la qualité sanitaire de l’eau jusqu’au robinet du consommateur. Parfois sur des réseaux très longs, on ajoute une unité de chloration pour prévenir toute reviviscence. Le chlore en solution réagit avec diverses substances généralement présentes dans l’eau. Ainsi le chlore est consommé par réactions avec des ions (formant des chlorures) mais aussi par des composés organiques formant des organochlorés ou haloformes tel que le chloroforme. D’autre part, le chlore se combine avec des ions ammoniums (pour former des chloramines) et avec des phénols (pour former des chlorophénols). L’odeur et le goût de chlore sont dues aux chloramines. L’action anti-microbienne du chlore en solution est proportionnelle à la consommation en Acide hypochloreux (HClO) donc à celle du chlore libre. Elle dépend du temps de contact, de la température, du pH et de la teneur en matière minérales et organiques. Mais la teneur en chlore libre résiduel (chlore non consommé et non combiné) doit être limitée autour de 0,1 mg/L afin de limiter la présence de sous-produits chlorés. Les sous-produits chlorés, outre la dégradation des qualités organoléptiques qu’entraîne leur présence dans l’eau sont pour certains d’entre eux toxiques. Les haloformes sont des substances cataloguées comme mutagènes et leur présence dans l’eau doit être limitée. La directive CEE du 03.11.1998 a ainsi fixé une norme pour les trihalométhanes de 100%g/L d’eau au robinet du consommateur. Les dérivés organochlorés font depuis longtemps l’objet de l’attention des organismes chargés du contrôle des eaux de distribution. Depuis 1974 les travaux de l’U.S Environnemental Protection Agency (EPA) ont montré la présence de dérivés haloformes et en particulier d’halométhanes dans les eaux d’alimentation de 80 villes américaines et ce, à des concentrations de plusieurs dizaines de µg par litre d’eau. « Ainsi la chloration de l’eau contenant des molécules organiques aptes à réagir avec le chlore est apparue dès le milieu de la décennie 1970, comme une pratique devant être limitée ou du moins très encadrée par une amélioration de la qualité initiale (filtration) et par une réglementation des teneurs en haloformes au niveau de la sortie des usines puisque ceux-ci apparaissent doués de propriétés toxiques et mutagènes. » Les conclusions apportées par le rapport sur la présentation de la qualité de l’eau (distribution de l’eau potable et traitement des eaux résiduaires) établi par l’office parlementaire d’évaluation des choix scientifiques et technologiques du 10.09.92 sont les suivantes : « devant ces résultats, pas toujours concordants, mais qui donnent cependant l’impression d’une action, faible (par rapport à d’autres facteurs de risque tels que tabac, alcool, mode de vie, profession...) mais significative de la chloration, on ne peut que souhaiter un renforcement des normes de qualité des eaux et une amélioration des filières de traitement. » L’office parlementaire des choix scientifiques et technologiques se positionne en faveur de l’optimisation des techniques d’ozonisation qui permettraient de réduire la mutagenèse de l’eau. Gordon W, professeur de chimie à Hearthland Institute de Darmouth s’élève contre une campagne anti-chlore abusive. « Le chlore est utilisé pour purifier l’eau potable et désinfecter les piscines, les deux pouvant être contaminées avec des micro-organismes fécaux qui pourraient causer des maladies telles que le choléra, la fièvre typhoïde et la dysenterie. L’Organisation Mondiale de la Santé estime que 25 000 enfants meurent chaque jour du fait des maladies dues à l’eau manquant de désinfection. L’ozone a été suggéré comme produit de remplacement pour la désinfection de l’eau, mais l’ozone disparaît très rapidement de l’eau et de ce fait ne protège pas contre la recontamination, alors que le chlore fournit un pouvoir de désinfection résiduel de l’usine des eaux aux robinets des consommateurs. On n’est pas sûr que les sous-produits de l’ozone, y compris le bromate, soient moins toxiques que ceux résultant de la chloration. » ... « Le souci des pays occidentaux envers des effets carcinogéniques problématiques du chlore a contribué à la décision du gouvernement péruvien de remplacer la chloration par la fluoration dans l’alimentation de l’eau en 1991. La dentition péruvienne s’est peut-être améliorée, mais le choléra a pu prospérer dans l’eau non chlorée. Le résultat : 600 000 habitants furent infectés et 7000 sont morts. Cette épidémie de choléra qui fut une catastrophe pour les habitants de Lima, s’étendit à tout le pays, puis aux pays voisins. Cette épidémie fit finalement plus de 20 000 victimes en Amérique latine de 1991 à 1994. Pendant cette période, 1 817 725 cas de choléra ont été déclarés à l’OMS dans le monde dont 44840 décès. Ce n’est pas anodin. » (Cribble, mars, avril 2000) L’alternative au traitement chimique par chloration ou ozonisation présentée comme étant la seule possible concernant l’extraction des micropolluants de l’eau outre le traitement biologique suivi d’une clarification et la filtration sur Charbon Actif en Grains (CAG) est la filtration sur membranes. En effet grâce à ces membranes, l’utilisation du chlore chute. La nanofiltration a un pouvoir anti-microbien total et retient également le Carbone Organique Dissous Biodégradable qui permet le développement du biofilm dans les canalisations. Mais les français sont-ils prêts à voir le coût de techniques aussi sophistiquées se répercuter sur leur facture d’eau? Il existe pourtant des moyens plus simples tels que la surveillance en continu de la qualité de l’eau du réseau par un turbidimètre ou encore le respect de la réglementation qui oblige les distributeurs à purger le réseau au moins une fois l’an. Celle-ci n’est toujours pas pratiquée et il semble nécessaire de systématiser les campagnes de purge. Ces différents moyens peu coûteux peuvent être utilisés en milieu rural, où les petites communes n’ont ni les moyens techniques ni les moyens financiers pour s’offrir une nanofiltration.

      

      Si la présence de chlore dans l’eau cache peut-être un problème sanitaire, la dureté de l’eau ne fait l’objet d’aucune norme.

      

      

      Une eau trop dure !

      

       La dureté de l’eau est proportionnelle à sa teneur en calcium et en magnésium. Elle se mesure en degrés français : 1° THF (Titre Hydrotimétrique Français) correspond à 4 mg de calcium. On estime que l’eau peut apporter à l’organisme 15 à 20 % du calcium dont il a besoin quotidiennement. Les désagréments d’une eau trop dure (une eau dont le THF est supérieur à 35 °F est considérée comme très dure), sont uniquement de l’ordre du confort : entartrage des tuyauteries, des résistances des machines à laver, eau désagréable à l’épiderme, limitant le pouvoir moussant des détergents, provoquant des dépôts dans la batterie de cuisine et des traces sur les verres... Pour éviter les inconvénients du calcaire dans les appareils ménagers et les installations de chauffage de l’eau, il est préférable de ne pas régler le thermostat du chauffage de l’eau au delà de 60°C, la précipitation des carbonates de calcium étant amplifiée lorsque la température de l’eau augmente. Faut-il adoucir l’eau ? Il est préférable de ne pas adoucir l’eau de boisson et de cuisine car le principal procédé étant un échange d’ions, les cations de calcium et de magnésium sont remplacés dans l’eau par des cations sodium déconseillés pour les personnes suivant un régime sans sel, par exemple les hypertendus. D’autre part, les conditions de transport, de conditionnement et de stockage du sel qui sera mis au contact de l’eau ne sont pas toujours conformes aux règles d’hygiène des produits alimentaires. L’adoucisseur lui-même peut devenir un lieu de prolifération de bactéries génératrices de mauvais goûts s’il n’est pas désinfecté régulièrement. Concernant l’eau alimentant les appareils électroménagers et les installations de chauffage, l’achat d’un adoucisseur peut se concevoir mais c’est un investissement assez lourd et son coût de fonctionnement annuel (entretien et sel) peut égaler la facture d’eau d’un ménage avec deux enfants et les économies procurées par l’eau adoucie sont difficiles à chiffrer.

      

      Au détriment de l’eau du robinet qui a un « goût » et dont la qualité est régulièrement mise à mal et à grands renforts de moyens publicitaires, l’eau minérale se donne une image de pureté, de prestige, de commodité mais surtout de santé et de maintien ou remise en forme.

      

      

       L’eau minérale embouteillée : une alternative ?

      

       La consommation moyenne de l’eau embouteillée a doublé en 10 ans. Pourtant les eaux embouteillées coûtent en moyenne 100 à 300 fois plus cher que l’eau du robinet et sont parfois contre-indiquées et / ou à consommer avec modération. L’achat d’une eau embouteillé se fait souvent en fonction de sa saveur, de son prix mais aussi en fonction de ses vertus supposées et de l’image de la marque. Combien de consommateurs font-ils la différence entre une eau de source et une eau minérale ? Savent-ils que cette dernière ne répond pas aux critères de potabilité de l’eau du robinet et qu’elles relèvent du code de la santé publique au même titre que les médicaments ?

      Une eau minérale naturelle est une eau possédant un ensemble de caractéristiques qui sont de nature à lui apporter ses propriétés favorables à la santé. Elle se distingue nettement des autres eaux destinées à la consommation humaine par sa nature, caractérisée par sa teneur en minéraux et oligo-éléments et par ses effets. La composition de ces eaux, obligatoirement affichée sur chaque bouteille doit être stable et ne pas varier de plus de 10 % au fil du temps.

      Il y a en France entre 1200 et 1400 sources. Une trentaine sont exploitées pour la production d’eau minérale. Elles ont été homologuées par le Ministère de la Santé sur la base d’un dossier soumis à l’Académie de Médecine qui reconnaît leurs propriétés favorables à la santé. « Par leurs caractéristiques, les eaux minérales naturelles sont toutes différentes les unes des autres. Leur teneur en minéraux et en oligo-éléments en fait des produits uniques, adaptés à des usages précis, dotés de vertus réelles ou supposées - longtemps demeurées théoriques, fautes d’études scientifiques exhaustives, impartiales et incontestables. D’où les slogans publicitaires pour le moins discutables. Il est donc curieux de voir les Français consommer des eaux minérales parfois plus chargées en sels de calcium que leur eau du robinet pourtant jugée trop calcaire. » « Il est tout aussi intéressant de voir les autorités obligées de déclarer une eau du robinet non potable pour excès de sulfates (cas de l’ennoyage des mines dans le Nord de la Lorraine où on peut localement dépasser la CMA de 250 mg/l) et conseiller la consommation d’eau embouteillée alors que parmi celles-ci environ la moitié des eaux minérales contiennent des teneurs en ces mêmes sulfates variant de 300 à 1600mg/l. » D’autre part, « on peut parfois noter des effets physiologiques peu souhaitables pour la santé des consommateurs (excès de fluor par exemple).» (Hartemann, 1998)

      

      

      

       2.1.8. Le fluor : attention à l’excès !

      

      Le fluor est favorable à la formation de l’émail dentaire, le rendant plus résistant aux caries (du troisième mois de la grossesse jusqu’à six ans environ). Il se fixe par voie sanguine au niveau de l’émail des germes dentaires pendant leur formation. Lorsque les dents sont formées, le fluor contribue à la constitution d’un film protecteur et inhibe également la formation de substances acides dans la salive qui sont à l’origine des caries. De nombreuses études ont démontré l’efficacité du fluor pour la prévention de la carie dentaire chez l’adulte. Il peut être apporté par l’alimentation (poissons, abats, sel fluoré) ou par les boissons (eau potable, eaux minérales plus ou moins fluorées) ou par des comprimés (de la gestation à 16 ans). Un complément peut être également fourni par voie externe par le biais de dentifrices et bains de bouche fluorés ou encore en consommant des chewing-gums fluorés. La prévention de la carie dentaire par complémentation de fluor pour les nourrissons et les jeunes enfants s’est généralisée en France depuis les années 80, souvent sans tenir compte de la teneur en fluor de l’eau consommée. Le fluor étant un élément constitutif de l’écorce terrestre, il se retrouve dans les nappes d’eau souterraines à l’état de fluorures. En 1994, chaque commune du département du Nord a fait l’objet d’un prélèvement spécifique afin de déterminer la teneur en fluor des eaux distribuées. (DDASS du Nord Service Santé Environnement) Cette enquête révèle que quelques communes sont alimentées par une eau de distribution publique dont la teneur en fluor est supérieure à 1 mg par litre. De même certaines eaux minérales conditionnées dans le Nord ont une teneur en fluor supérieure à 2 mg par litre (ex : source Orée du Bois, source Vauban, source Clos de l’Abbaye). Or le fluor est un élément halogéné exerçant sur l’organisme des actions très différentes selon les doses ingérées. Au delà de 1,5 mg par litre d’eau d’alimentation (norme fixée par la directive CEE de 1980 sur l’eau potable), le fluor peut être à l’origine de troubles regroupés sous l’appellation de « fluoroses » :

       _ malformations dentaires,

       _ taches de l’émail,

      et pour des concentrations en fluor supérieures à 4 mg par litre :

       _ décalcification osseuse,

       _ condensation anormale du squelette avec ossification des ligaments : fluorose osseuse,

       _ troubles digestifs et nerveux...

      Ces troubles sont regroupés sous l’appellation de «fluoroses». Si différents consensus canadien et européen ont préconisé de n’effectuer aucun apport supplémentaire en fluor avant l’âge de trois ans, (dès six mois pour le consensus américain si l’eau de boisson contient moins de 0,3

      

      mg de fluor par litre), en France, le consensus dentaire et médical conseillait toujours (en 1997) la supplémentation systématique de la femme enceinte à partir du 5ème mois de grossesse et de l’enfant jusqu’à 14 ans. Le Comité Français d’Education pour la Santé recommande dans un dépliant « le fluor l’ami de vos dents » de 1996 : « demandez à votre médecin, votre dentiste ou votre pharmacien. Il vous aidera à choisir une méthode de fluoration efficace selon  :

      _ votre âge,

      _ votre état de santé et celui de vos dents,

      _ votre région de résidence et la teneur en fluor de son eau,

      _ vos habitudes de vie et d’alimentation.»

      Associée à cette campagne grand public, une campagne destinée aux professionnels et acteurs de santé les informe sur la toxicité éventuelle du fluor : «  comme tout médicament actif, le fluor exerce ses effets bénéfiques à certaines doses, mais en excès il risque de provoquer des incidents ou accidents. Une prise quotidienne de plus de 2mg (soit plus de 8 comprimés à 0,25 mg par jour pendant des années) peu provoquer une coloration de l’émail (fluorose dentaire) et à des doses supérieures une augmentation de la densité osseuse. L’intoxication aïgüe a lieu lors de la prise de doses massives (au-delà de 250 mg/jour, soit 1000 comprimés ou 1 kg de sel !). Néanmoins les doses quotidiennes préconisées sont bien inférieures aux doses toxiques. Seule la régularité de l’apport est gage d’efficacité :

      _ une seule méthode d’apport général : apport en eau, en sel ou en comprimés ; il faut choisir.

      Médecin, chirurgien-dentiste et pharmacien sont à même aujourd’hui de guider les consultants à choisir une méthode de fluoration efficace selon :

       _ l’âge de leur consultant ;

      Chez l’enfant de moins de 2 ans, le sel est et doit être consommé en faible quantité; l’apport de comprimés est préférable. Notez que les laits artificiels ne contiennent pas de fluor,

       _ leur état de santé et celui de leurs dents ;

      L’apport de sel doit bien sûr être prudent chez la femme enceinte et dans certaines pathologies (insuffisances rénales, régimes hyposodés, hypertension...).

       _ la teneur en fluor de l’eau qu’il consomme : robinet ou bouteille ;

       _ leurs habitudes de vie et d’alimentation.»

      Pour éviter ces effets toxiques chroniques, il s’avère indispensable pour chaque citoyen de connaître la teneur en fluorures de l’eau de boisson afin de vérifier qu’un apport supplémentaire est véritablement envisageable (pour des eaux sont la teneur en fluorure est inférieure à 0,4 mg par litre) et utile, inutile ou encore à proscrire (pour des eaux dont la teneur en fluor est supérieure à 1 mg par litre. « Théoriquement, on devrait pouvoir obtenir le chiffre en téléphonant dans les mairies qui sont tenues d’afficher les résultats d’analyse transmis par les DDASS. En pratique - nous nous sommes livrés à cet exercice - c’est beaucoup moins évident Entre les « C’est affiché mais le fluor n’y est pas... Il faut faire l’analyse vous même...  »  et les renvois réguliers à la DDASS ou à la compagnie distributrice, l’obtention des résultats, demande beaucoup de persévérance. » (Sokolsky, avril 97) On ne peut que regretter les carences en matière d’information sur les teneurs en eau de boissons ainsi que sur la fréquence de la fluorose chez l’enfant. Pour les consommateurs d’eaux minérales, la composition de l’eau est détaillée sur l’étiquette, les valeurs étant données en g ou en mg/l. Le problème est que le consommateur X ignore à partir de quelle teneur , on peut considérer qu’une eau est riche en fluor. De plus aucune contre-indication n’est mentionnée (sauf Hépar) sur l’étiquette. Ainsi des cas de fluorose osseuse ont été observés en France chez de gros buveurs de Saint-Yorre (27 cas). (Nadeau, octobre 1998) La reconnaissance des vertus thérapeutiques d’une eau (Saint-Yorre présente un intérêt dans le traitement des affections du foie et des voies biliaires de part sa composition riche en bicarbonates) signifie implicitement que cette eau ne peut être consommée de façon continue comme une simple eau de source. Ainsi certaines eaux comme Saint-yorre peuvent être contre-indiquées à consommation élevée et à haute dose pour des consommateurs sensibles comme les enfants ou les personnes soumises à un régime hyposodé. Il semble donc que l’eau minérale du fait de sa composition très différenciée selon les marques soit à réserver à des usages spécifiques et momentanés. Le professeur Ph. Hartemann du département Environnement et Santé Publique de la Faculté de Médecine de Nancy, déclarait dans un article consacré aux eaux destinées à la boisson en milieu de soins: « Le consommateur dispose donc d’un large choix, selon son goût... Il semble cependant souhaitable que les établissements de soins tiennent compte de cette possibilité de fortes teneurs en certains sels minéraux pour réserver certaines eaux à une prescription médicale, et ne mettre à disposition de leur clientèle classique, s’ils le décident, que des eaux peu ou moyennement minéralisées. Il serait intéressant qu’un avocat en mal de cause à plaider, attaque un établissement pour non respect de la législation relative à l’obligation de fourniture d’eau non conforme à la norme de potabilité ! » (Hartemann, 1998)

      

      Dans la très grande majorité des cas, l’eau d’adduction est conforme aux critères de potabilité. Dans le cas contraire, le consommateur doit réagir. L’eau de source embouteillée peut être utilisée lorsque l’eau du robinet n’est pas potable (pollution par le plomb, les pesticides ou contamination microbienne...) ou si elle a un goût de chlore très prononcé (celui-ci disparaît si l’on met la carafe d’eau quelques minutes au réfrigérateur avant de consommer l’eau) ou encore si l’on veut apporter un plus (goût, commodité...). C’est au consommateur d’exiger l’application de la loi concernant la protection des captages et de rappeler au maire et/ou au président du syndicat des eaux que leur responsabilité est engagée et qu’ils peuvent être mis en cause pénalement si un cas de pollution survenait en l’absence de périmètre de protection.

      

      

      

       2.1.9. Agir, oui mais comment ?

      

       La Compagnie des Eaux et de l’Ozone (CEO) a été condamnée le 12 avril 2000 par le tribunal d’instance de Nancy pour distribution d’eau non conforme. La CEO devra indemniser quinze habitants de Richarmenil qui avaient porté plainte contre ce distributeur d’eau potable accusé de les avoir alimentés en eau polluée au manganèse pendant 502 jours entre fin 1997 et juin 1999. Cette décision pourrait faire jurisprudence et déclencher plusieurs contentieux du même type. La CEO, qui avait proposé une indemnité de 1000 F par abonné, devra payer entre 7300 et 12000 F selon les cas. Concernant le prix de l’eau, la Loi du 02.02.1995 oblige les délégataires à fournir un rapport annuel sur le prix et la qualité de leurs services. Mais ce texte législatif apparaît être trop imprécis pour qu’élus et usagers puissent exercer un véritable contrôle. « Comment savoir ce que recouvrent vraiment les « frais de personnel » (40 à 60 % des coûts) et autres « frais de siège » répartis sur plusieurs contrats ? » (Maleysson, septembre 1998) Certains élus plaident pour un contrôle plus étendu avant la signature et en cours de contrat. Mais pour que ces actions aboutissent, il est nécessaire que les électeurs consommateurs soient déterminés. Ainsi assister au conseil municipal, réclamer la mise en place d’une commission consultative sur les services publics, réclamer des précisions sur le rapport concernant le prix et la qualité du service d’eau et d’assainissement que le maire doit présenter chaque année au conseil municipal et tenir à disposition du public pendant au moins quinze jours sont des actes civiques pouvant faire pression sur la gestion de l’eau et son coût pour les consommateurs. Ceux-ci peuvent également, au plan local, faire appel aux services des Directions Départementales de la Consommation, de la Concurrence et de la Répression des fraudes, ainsi qu’aux Agences de l’Eau pour obtenir des informations sur les factures d’eau. Les associations de consommateurs type UFC Que Choisir proposent régulièrement dans leurs revues mensuelles des articles (et des tests) concernant la qualité de l’eau potable ainsi que son coût. De manière plus globale, il est possible d’agir en amont : ainsi, pour la première fois en France, des représentants de la société civile (ONG, entreprises...) ont participé à la conférence internationale sur l’eau et le développement durable à Paris en mars 1998. D’autre part, sachant que 90 % de l’eau potable est utilisée pour des usages domestiques autres que la boisson et la cuisine (lessive, bain, douche, chasse d’eau...), il semble indispensable de développer les techniques expérimentales de recyclage des eaux ménagères et/ou de valorisation des eaux pluviales.

      

      

      

      


2.2. Les maladies infectieuses

      

      

       Les maladies infectieuses sont causées par des micro-organismes (parasites, bactéries ou virus) pathogènes. Selon un rapport de l’Organisation Mondiale de la Santé, plus de 17 millions de personnes sont mortes dans le monde en 1996 suite à une maladie infectieuse ou parasitaire. (Science et Vie, juillet 1997)

      

      

       2.2.1 Présentation et évolution des maladies infectieuses

      

      Les parasites

      

       Les parasites sont des organismes du règne animal, unicellulaires (protozoaires comme l’amibe) ou plus rarement pluricellulaires (métazoaires). Ils pénètrent et envahissent les tissus de l’hôte en provoquant leur destruction. Les maladies parasitaires sont généralement répandues dans les pays tropicaux. On évaluait à 250 millions (en 1993) le nombre d’individus infectés par le protozoaire responsable du paludisme ou malaria entraînant prés de 2 millions de morts par an. La bilharziose provoquée par des schistosomes, petits vers s’infiltrant dans les organes vitaux atteint jusqu’au trois quarts des populations de certaines régions tropicales. Des milieux propices au développement d’un coquillage, hôte indispensable des larves de bilharziose ont été crées par l’homme. Les cultures irriguées et les barrages hydroélectriques ont ainsi favorisé la propagation du parasite. Citons également en Amérique du Sud la maladie de Chagas causée par le trypanosome cruzi, parasite d’une punaise. En Afrique un autre trypanosome provoque la maladie du sommeil. Le vecteur est alors la mouche tsé-tsé. Les parasites représentent à ce jour plus que jamais un véritable fléau pour les habitants des régions tropicales. (Dorozynski, mars 1993)

      

      

      Les bactéries

      

       Les bactéries sont des organismes vivants dont la taille est de l’ordre du micron ayant une structure cellulaire primitive (procaryote = sans noyau véritable) et un temps de génération généralement très court. (Temps de dédoublement d’ E. Coli (colibacille) : 20 minutes). De nombreuses bactéries sont des germes inoffensifs pour l’homme, encore appelées germes banaux. Elles sont présentes dans le sol, dans l’eau sont véhiculées par l’air... D’autres forment les flores commensales et saprophytes d’autres organismes vivants. L’homme possède des flores microbiennes cutanées, intestinales, génitales... La flore saprophyte cutanée s’oppose par effet de barrière à l’implantation de micro-organismes pathogènes, alors que la flore commensale du Colon, participe au processus de digestion. Certaines bactéries sont utilisées par l’homme autrefois de manière empirique et aujourd’hui industriellement. Les bacilles lactiques et les bactéries acétiques permettent respectivement la fermentation du lait et la fabrication du vinaigre. Mais quelques dizaines d’espèces de bactéries sont pathogènes : elles sont alors virulentes et/ou sécrètent des toxines. Certaines bactéries provoquent de graves infections chez les sujets immunodéprimés (on parle dans le cas du SIDA d’infections «opportunistes») ou lorsqu’elles ont l’opportunité de pénétrer dans l’organisme, lors d’une intervention chirurgicale par exemple des bactéries inoffensives de la flore intestinale comme des colibacilles provoqueront des infections urinaires.

      

      

      Les virus

      

       Les virus sont des organismes particuliers se résumant pratiquement à un programme génétique protégé pendant la phase extracellulaire par une coque protéique appelée capside et parfois par une enveloppe. C’est un parasite obligatoire de cellules vivantes appelées hôtes, doté d’un temps de génération extrêmement court de quelques minutes à un jour. La multiplication des virus est une réplication qui a lieu à l’intérieur des cellules de l’hôte détournant pour se faire la synthèse protéique de l’hôte. Certains chromosomes viraux peuvent s’intégrer dans les chromosomes des cellules de l’hôte et exister ainsi à l’état latent c’est à dire sans produire aucune descendance. On appelle ces chromosomes viraux intégrés des provirus. Les bactériophages sont des virus capables de s’intégrer dans le chromosome bactérien. Ces virus non pathogènes sont utilisés par les biologistes comme modèle de compréhension du fonctionnement des virus mais aussi et surtout en génie génétique comme vecteur pour l’introduction dans les cellules bactériennes de gènes dont l’expression supplée à certains déficits génétiques. Il existe des dizaines de virus responsables de rhumes ou de diarrhées. Et il apparaît impossible d’étudier tous les virus de façon systématique. Il faudrait multiplier par milliers le nombre actuel de chercheurs travaillant sur le seul virus du SIDA. Le travail de recherche se fait donc au coup par coup : en réaction à l’apparition d’une nouvelle pathologie. Les techniques d’analyse dont disposent les biologistes étant de plus en plus performantes, elles permettent d’identifier des virus qui, il y a 10 ans encore seraient peut-être passés inaperçus ou auraient été confondus avec des virus voisins connus. Les virus ne sont pas «nouveaux», certains sont plus virulents car fruits de mutations ou de recombinaisons entre des virus existants. Pour que la contamination ait lieu, il faut que le cycle naturel de ces virus soit perturbé ; de nouvelles pathologies apparaissent alors. Le filovirus Ebola en est l’exemple typique. Une première épidémie fit en 1976, 280 morts au bord de la rivière Ebola au Zaïre puis une nouvelle épidémie sévit en 1995 et causa 200 morts en sept semaines. Le réservoir de ce virus provoquant des fièvres hémorragiques est toujours inconnu. (Le Gueno, mars 1996)

      

      

      Le prion

      

       Le Prion est une protéine dont la structure secondaire est modifiée et qui se comporterait comme un agent infectieux. Le Prion est détecté dans les cerveaux atteints de dégénérescence neuronale ou encéphalopathies spongiformes. On distingue différentes encéphalopathies spongiformes :

       _ la scrapie ou tremblante du mouton,

       _ l’Encéphalite Spongiforme Bovine (E.S.B.) ou maladie de la «vache folle»,

       _ la maladie de Creutzfeldt Jacob, chez l’homme (ancienne et nouvelle forme).

      Certains scientifiques soutiennent que le Prion est l’agent infectieux transmettant la modification de structure spatiale à des protéines initialement saines. Or ce schéma est en contradiction avec le dogme de la réplication-transcription de la génétique classique : l’information cellulaire se fait dans le sens ADN ARN protéines. Tant que l’on n’aura pas montré que le prion infectieux des patients atteints de la maladie de Creutzfeld Jacob est d’origine bovine, on ne pourra affirmer que cette nouvelle forme est liée à l’épidémie britannique de la maladie de la vache folle. «L’absence de test diagnostique associé à la très longue durée d’incubation de cette maladie fait que tous les scénarios, les plus catastrophiques comme les moins inquiétants, peuvent être proposés». «Les autorités scientifiques et sanitaires sont également confrontées à un autre problème majeur, celui de la possible transmission, via le sang et les produits sanguins, du prion pathogène». (Nau, jeudi 19/03/1998)

      

      Comme nous venons de le constater avec l’apparition des «nouveaux» virus, la survie de la population humaine en général, et notre état de santé en particulier, dépend du maintient de l’équilibre écologique avec les micro-organismes. Lorsque celui-ci est rompu, des épidémies, voire des pandémies déciment les populations.

      

      

      Les infections

      

       La peste, au XIVe siècle était le fléau de l’Europe occidentale, la tuberculose (bacille de Kockh) au XVIIIe siècle était la première cause de mortalité en France. L’épidémie de grippe de 1918 a fait 20 millions de morts. Des maladies telles que la Variole (maladie virale), la diphtérie (infection bactérienne) ont été vaincues grâce aux progrès réalisés notamment en microbiologie, en immunologie et actuellement en biologie moléculaire ayant permis la découverte puis la synthèse de vaccins, d’antibiotiques et de médicaments antiviraux. Malheureusement bactéries et virus sont aussi doués d’adaptabilité. Celle-ci leur permet de mettre en place des mécanismes de résistance aux antibiotiques (pour les bactéries) et aux désinfectants et antiseptiques, qu’ils sont capables de transmettre à leur descendance et parfois même aux micro-organismes voisins. Des agents anti-microbiens utilisés trop fréquemment sans discernement, à des doses supérieures à la concentration minimale inhibitrice ou encore sans respecter la durée du traitement sont responsables par sélection de l’augmentation du nombre de souches résistantes (voire multirésistantes). Dès 1942, soit 2 ans après la mise au point du procédé industriel de production de la pénicilline par Edward Abraham et Ernst Chain, 90 à 95 % des souches hospitalières de staphylocoques dorés (responsables de septicémies) étaient sensibles à la pénicilline d’origine naturelle (comme l’avaient prédit E. Abraham et E. Chain). Des souches d’entérocoques, bactéries naturellement présentes dans la flore intestinale sont devenues multirésistantes et s’étendent dans l’Est des Etats Unis. (Paris, octobre 1995) L’usage systématique des antibiotiques en milieu hospitalier (mais aussi dans toutes les collectivités) a encouragé, après la seconde guerre mondiale, l’abandon des règles d’hygiène (lavage des mains, tenue, stérilisation du matériel, isolement des patients septiques...).

      

      En France, les infections nosocomiales représentent la première cause de résistance aux antibiotiques.

      

       Les infections nosocomiales

      

       Par infection nosocomiale, on entend toute maladie provoquée par des micro-organismes, contractée dans un établissement de soins par tout patient après son admission, les symptômes apparaissant lors du séjour à l’hôpital ou après. Chaque année 600 000 cas sont recensés, soit 5 à 10 % des hospitalisations. En 20 ans, aucune nouvelle famille d’antibiotiques n’a été créée ; mais depuis quelques mois, la recherche est relancée et les laboratoires investissent à nouveau dans ce domaine. (ADOSEN, février 1998) «Les infections causent plus de décès que les accidents de la route ; elles constituent, en effet, la 4e cause de mortalité du pays après les maladies cardio-vasculaires, les cancers et les accidents vasculaires cérébraux. Les micro-organismes à l’origine de ces infections sont majoritairement des bactéries (à environ 80 %). Parmi elles, le staphylocoque doré cause beaucoup de ravages». (ADOSEN, avril 1997) Le 06/05/1998 ont été rendus obligatoires par décret les Comités de lutte contre les Infections Nosocomiales institués sans succès en 1973. La circulaire du ministère de la Santé du 13/10/88 précise les conditions d’application du décret et souligne le fait que les infections nosocomiales sont un frein aux progrès thérapeutiques, nuisant à la réputation du milieu hospitalier. Mais elles ont aussi un coût économique (augmentation des coûts d’hospitalisations) et social. Le CLIN est un centre de réflexion et de proposition appelé à travailler en collaboration permanente avec les services cliniques, les laboratoires, la pharmacie ainsi qu’avec les services administratifs et techniques. Son rôle est donc de mettre en place une politique cohérente de surveillance et de prévention des infections nosocomiales. C’est le SIDA qui, selon beaucoup d’hygiénistes et de médecins, a servi de révélateur. L’arrivée massive de patients séropositifs pour lequel n’existe ni vaccin et n’existait (fin des années 80) aucun traitement efficace a contraint le personnel hospitalier à redécouvrir des tâches d’hygiène élémentaire pour lesquelles il y avait eu un certain laisser-aller. Néanmoins, lors de forums organisés en 1991, la direction générale de la Santé a relevé de nombreuses difficultés de fonctionnement des CLIN liées au manque de disponibilité des membres du comité, à la rareté du personnel formé à la maîtrise de l’hygiène mais aussi aux difficultés rencontrées pour motiver la communauté hospitalière. Le dispositif a été renforcé par la création de comités régionaux de coordination des CLIN et du comité technique national des infections nosocomiales appelé à proposer au Ministre chargé de la santé la politique à suivre en la matière. (Techniques hospitalières, novembre 1997) Un plan quinquennal du Ministre, publié en 1994 s’est fixé comme objectif de baisser le nombre de cas d’Infection de 30 % d’ici l’an 2000 en préconisant notamment la création d’un poste d’infirmière hygiéniste pour 400 lits. Il n’y en a en moyenne en 1997 qu’une pour 1500 lits. (ADOSEN, avril 1997) Hors des hôpitaux, les antibiotiques sont aussi largement utilisés notamment de manière préventive pour combattre les surinfections bactériennes après une infection virale. Cet usage souvent empirique contribue également à l’apparition de souches multirésistantes.

      

      

       Les maladies émergentes

      

       La première conférence internationale sur les maladies émergentes s’est tenue au début de l’année 1998 à Atlanta Etats Unis. Elle a dressé un tableau particulièrement sombre de la situation sanitaire mondiale à l’aube du 21e siècle. On sait aujourd’hui que la science et la médecine n’ont pas réussi à maîtriser les flores bactériennes, virales et parasitaires et que «tout relâchement dans la prévention est immédiatement suivi de la réérmergence de maladies disparues. La situation des pays de l’ancien bloc communiste, où l’on voit resurgir la diphtérie, est, de ce point de vue révélatrice». (Nau, jeudi 19 mars 1998) Même si l’O.M.S. s’est dotée d’une nouvelle division chargée des maladies émergentes et si les informations biologiques entre les équipes spécialisées dans la lutte contre les infections circulent rapidement on peut encore craindre une pandémie aussi meurtrière que celle de 1918 (grippe). Concernant les maladies parasitaires, l’O.M.S. a dû renoncer à mettre sur pied des «stratégies d’éradication» pour se contenter de «stratégies de lutte plus réalistes. Des infections réapparaissent : la tuberculose, la syphilis, d’autres émergent : SIDA, Hépatite B... et ces nouvelles épidémies provoquent des prises de conscience de la société occidentale. Celle-ci n’étant pas à l’abri des maladies infectieuses malgré sa qualité de vie, sa médecine de pointe... Au contraire ces infections mettent en lumière les failles de notre société :

      _ l’absence de précautions élémentaires tant en ce qui concerne les relations hétéro ou homosexuelles que l’usage des seringues pour la drogue mais aussi tout simplement concernant notre vie quotidienne. En effet selon le docteur Frédérique Saldmann, spécialiste de diététique et d’hygiène alimentaire, les mains sales provoquent chaque année plus de morts que les prions. Une étude américaine a été effectuée auprès de classes primaires dont les élèves ont été contraints à se laver les mains quatre fois par jour (au début des cours, avant et après le déjeuner et à la fin des cours) les autres élèves ayant été laissés libres de leurs attitudes. Pendant les deux mois de l’étude, dans le groupe des mains propres, l’absentéisme lié à des troubles digestifs à diminué de 51 % et celui lié aux infections respiratoires à régressé de 24 %. Les Etats Unis connaissent 9000 décès par an dus aux intoxications alimentaires. Le vieillissement de la population est corrélé à une diminution de l’état du système immunitaire, il est donc indispensable d’adopter tout au long de sa vie une hygiène corporelle stricte ;

      

      _ l’existence dans les pays riches, d’une population exclue des bénéfices offerts par les progrès techniques, économiques, médicaux...

      

      

      

      

      

       2.2.2. Les M.S.T. : Maladies Sexuellement Transmissibles ou I.S.T. : Infections Sexuellement Transmissibles

      

      

      «L’organisation mondiale de la santé estime à 100 millions le nombre de rapports sexuels quotidiens dans le monde, et à 700 000 le nombre de M.S.T. transmises chaque jour». (Pour la Science, avril 1995) Les M.S.T. ou maladies vénériennes (du nom de Vénus, déesse de l’amour) sont des maladies contagieuses transmises notamment par voie sexuelle. Elles englobent un groupe d’infections causées par différents micro-organismes (bactéries, virus mais encore levures ou parasites). Actuellement, on parle plutôt d’I.S.T. que de M.S.T. car la plupart d’entre elles ne donnent pas de symptômes; « Il est donc important de se faire suivre régulièrement par un gynécologue ou un médecin et d’apprendre à examiner, écouter et regarder son corps.» (La Tutélaire, Oct. 2003) Les plus récentes des M.S.T. sont le SIDA et l’Hépatite B. Chacun de nous peut être contaminé par ces agents infectieux, même s’il existe des groupes à risque, notamment les sujets à partenaires multiples homo ou hétérosexuels, les adolescents et les 20 - 29 ans. Comme le soulignait en 1981 la ligue Nationale Française contre les maladies vénériennes, c’est «L’IGNORANCE entretenue par nos préjugés qui explique tout». (Dépliant édité en 1981 «Peut-on prévenir les MST» ? ) Ces dernières années, on a constaté une augmentation de 300 à 500% de certaines M.S.T. (dépliant SMENO, mars 2003)

      

      

      Les différents types de M.S.T.

      

      _ Les M.S.T. bactériennes regroupent la syphilis (due au tréponème) actuellement en recrudescence, la blénoragie (à gonocoque) ou chaude-pisse car elle se manifeste par un écoulement de pus et des brûlures en urinant et les infections à chlamydiae fréquentes chez les adolescentes et les jeunes femmes entraînant souvent une stérilité si le recours au traitement antibiotique n’est pas entrepris assez rapidement. (Malheureusement l’infection est généralement asymptomatique dans sa 1ere période) ;

      _ Les M.S.T. virales comprennent notamment l’herpès génital, l’hépatite B et le SIDA infection de plus en plus fréquente, souvent associée à d’autres M.S.T. ;

      _ Les M.S.T. mycosiques dues à des champignons microscopiques principalement des levures (candidoses).

      

      

      Nous allons nous attarder sur trois M.S.T. : la syphilis en recrudescence, le SIDA et l’hépatite B, deux infections virales émergentes.

      

      

      

       La syphilis (ou vérole)

      

       Deux théories s’opposent sur l’origine de la Syphilis en Europe. Le 1er modèle érigé en dogme est celui de l’origine américaine de la maladie. Il s’appuie notamment sur le fait que l’explosion épidermique de la fin du XVe siècle et de la 1ère moitié du XVIe siècle de cette maladie vénérienne apparemment nouvelle a coïncidé avec le retour de l’amiral Colomb à Barcelone en 1493. Le second modèle est construit sur la découverte dans le Var des restes osseux datant du IVe siècle parfaitement conservés d’une femme enceinte avec le squelette de son fœtus en place dans la cavité pelvienne. Le squelette fœtal présente un ensemble de lésions osseuses attribuées à une syphilis congénitale. Cette découverte n’est pas isolée, d’autres plus récentes plaident en faveur de l’existence d’une infection à tréponèmes en Europe avant 1493. Une 3e hypothèse pourrait expliquer l’origine de cette maladie : des restes fossiles d’Homo erectus africains portent des lésions osseuses dues à une tréponématose. Ainsi cette maladie humaine aurait plus d’un millions d’années et aurait diffusé en Asie et en Amérique lors des premières migrations humaines. La syphilis fait partie des maladies que l’on a cru éradiquer par les traitements antibiotiques. Le nombre de malades, il est vrai avait considérablement diminué vers 1950, mais il est remonté en flèche dans le monde entier dans les années 60 et sa progression continue. Elle représente actuellement 1 à 2 % des M.S.T. en France où 5 à 6 000 cas récents par an étaient recensés en 1981, 10 000 en 1987. Il n’existe pas de vaccin contre la syphilis, pour lutter contre cette maladie, on possède néanmoins trois moyens :

       1) Informer pour éviter l’infection : règles d’hygiène corporelle, port du préservatif, anatomie et physiologie des appareils génitaux...

      

       2) Dépister (le dépistage est obligatoire lors de l’examen prénuptial et chez la femme enceinte, il peut se faire dans des centres de dépistage ou «centres de prophylaxie des M.S.T.» de manière anonyme et gratuite) et rompre les chaînes de contamination en responsabilisant le malade quant à son comportement sexuel (Prévenir et inviter au dépistage son ou ses partenaires et porter un préservatif).

      

       3) Soigner correctement tous les malades déclarés sachant que les traitements sont longs et contraignants. La syphilis peut se guérir par un traitement antibiotique. « Il est possible de mettre fin à l’épidémie actuelle si chacun se mobilise en faisant un test, et pour ceux qui ont de nombreux partenaires occasionnels et/ou qui sont séropositifs, en faisant un test régulièrement. Si toute personne atteinte par la syphilis a accès rapidement au traitement, le risque d’être contaminé et de contaminer deviendra très faible... Depuis deux ans, nous assistons à une recrudescence indiscutable des cas de syphilis à Paris, + 200% en un an.

      

      La syphilis est une maladie extrêmement contagieuse. La contamination peut donc se faire lors de tous rapports sexuels non protégés, y compris la fellation. Elle n’a pas toujours de signes apparents :

       _ quand il y a des signes, ils n’apparaissent en moyenne que trois semaines après la contamination. Il s’agit de chancre des muqueuses (petite plaie indolore et creusée), d’éruption sur la peau et/ou les muqueuses sans démangeaison (petites tâches rose pâle sur la peau et rouge sur les muqueuses du gland, de l’anus, de la gorge, de la langue, des lèvres),

       _ les signes visibles peuvent disparaître même sans traitement, mais la syphilis reste présente dans l’organisme et reste transmissible. Elle s’aggrave dangereusement sans traitement : atteintes graves cardio-vasculaires, du système nerveux, du cerveau et des yeux... Elle augmente considérablement le risque de transmission du VIH/SIDA ;

      

       _ si vous êtes séronégatif et que vous avez la syphilis, vous augmentez les risques de contracter le VIH/SIDA lors de rapports sexuels non ou mal protégés ;

       _ si vous êtes séropositif et que vous avez la syphilis, vous augmentez les risques de transmettre le VIH/SIDA lors de rapports sexuels non ou mal protégés. 

      ( dépliant « Alerte épidémie de Syphilis, réalisé par les associations de lutte contre le sida, la Mairie de Paris, la Direction des Affaires Sanitaires et Sociales de paris, le Ministère chargé de la santé, le comité français d’Education pour la santé, mai 2002)

      

      Quelle que soit l’IST contractée, les muqueuses génitales sont endommagées et donc fragilisées. C’est pourquoi en cas d’IST, le risque de transmission du VIH est multiplié par 5.

      

      

      

      

      

       Le SIDA: Syndrome d’Immuno Déficience Acquise

      

       Les premiers cas de SIDA ont été décrits par deux médecins Californiens en 1981. Ceux-ci ayant constaté que cinq de leurs patients souffraient d’un syndrome d’immunodéficience aiguë lié à une diminution de la quantité de lymphocytes circulants. C’est en 1983, à l’institut Pasteur à Paris, que le virus a été identifié par l’équipe du Professeur Luc Montagnier. Le virus de l’Immunodéficience Humaine (V.I.H.) se transmet par les liquides biologiques humains. Depuis le début de l’épidémie, seuls trois modes de transmission ont été observé :

       _ la transmission par voie sexuelle,

       _ la transmission par voie sanguine,

       _ la transmission maternofoetale.

      Les communautés les plus touchées au départ par le SIDA étaient les communautés homosexuelles et les toxicomanes mais aussi les transfusés (hémophiles surtout). Mais très vite la transmission hétérosexuelle s’avéra de plus en plus fréquente. Au 31 décembre 1987 le nombre des malades détectés, depuis les premiers cas en 1981 étaient de 70 000 dont 3 000 en France. A la même date le nombre des séropositifs était estimé entre 160 000 et 200 000 en France. A la fin des années 80 la prévention apparaissait être la seule arme contre le SIDA. Il n’existait alors aucun traitement spécifique contre cette maladie. Les messages de prévention consistaient à prôner le port du préservatif, la réduction du nombre de partenaires sexuels (« Bien connaître ses partenaires et réduire leur nombre diminue le risque de contamination » Info Santé:  « Tous contre le SIDA », mai 1994) et l’usage unique d’aiguilles et seringues pour les toxicomanes afin d’éviter la contamination. Concernant les séropositifs les informations visaient à éviter la transmission (par le port du préservatif, la désinfection du matériel en contact avec le sang ou le sperme contaminés...) et l’activation. En décembre 2001, en France, le nombre de séropositifs est estimé entre 120 000 et 150 000 et on dénombre 32 854 décès liés au SIDA depuis le début de l’épidémie. Si en 1990 en France on comptait 5 hommes séropositifs pour 1 femme, depuis 1998 le rapport est d’environ 30 hommes pour 1 femme. L’épidémie semble se stabiliser même si chaque année plus de 5 000 cas de SIDA sont déclarés. La stabilisation du nombre de nouveaux cas d’infections à V.I.H. depuis 1992 tend à démontrer l’efficacité des mesures de prévention. Parmi les nouveaux cas de SIDA déclarés on observe dans l’ensemble une relative stabilité de la transmission par voie homo ou bisexuelle (environ 25% des cas), une tendance à son augmentation par voie hétérosexuelle (50% des cas) et une diminution de la transmission liée à la toxicomanie (11% des cas) Les régions les plus touchées en 2001 étaient Les Antilles et la Guyane, l’île de France, la Provence Alpes Cote d’Azur et l’Aquitaine. (http://www.aides.org/sit/vihinfos, 01.11.03). Dans les premières années de l’épidémie, la médecine ne disposait que de moyens très limités à la prise en charge des maladies infectieuses et des tumeurs consécutives à l’infection par le V.I.H. Actuellement les traitements sont de deux types complémentaires : l’administration de médicaments antirétroviraux qui empêchent les virus de se multiplier et des médicaments permettant de prévenir et de traiter des infections opportunistes au cours du SIDA

      

      

      L’évolution des traitements

      

       Le chef de file des médicaments utilisés dès la fin des années 80 est l’AZT (zidovudine) permettant d’inhiber la transcriptase reverse (enzyme permettant la conversion de l’ARN viral en ADN viral capable de s’insérer dans le génome de la cellule hôte). L’AZT ainsi que les médicaments analogues utilisés en monothérapie ont une efficacité limitée : après un certain temps de traitement, le V.I.H. peut muter et devenir résistant au médicament. De nouveaux médicaments ont alors été mis au point. Ils permettent d’inhiber une enzyme indispensable à la finition et à la multiplication du V.I.H. Des trithérapies (association de trois antiviraux) ont débuté en 1996. L’état clinique, virologique et immunitaire de la plupart des patients s’est amélioré et le nombre d’hospitalisations en court séjour a diminué de moitié fin 1996. En effet, il est possible avec ces traitements de diminuer sensiblement la quantité de virus présents dans l’organisme, mesurée dans le sang par la charge virale. Il a été montré que plus la charge virale d’une personne infectée par le VIH est basse, plus le risque d’évolution de l’infection est faible. Depuis la généralisation de ces traitements, de nombreuses personnes porteuses du VIH ont pu retrouver ou conserver une vie quasi-normale, même si le VIH reste présent dans l’organisme. On peut craindre néanmoins, un épuisement de l’efficacité des antiviraux avec le temps, du fait de résistances. De plus, deux problèmes se posent : la tolérance des trithérapies et plus particulièrement des antiprotéases et la mauvaise compliance des patients. On estime à 1/3 le nombre de patients ne respectant pas la prescription. La prise de ces médicaments s’accompagne d’effets indésirables plus ou moins importants, plus ou moins handicapants, apparaissant plus ou moins rapidement. Dans tous les cas, ils peuvent être difficiles à supporter au quotidien, notamment lorsque comme c’est le cas avec les multithérapies, le traitement doit être pris sans discontinuer. L’espoir réside donc dans la découverte en continu (et la mise sur le marché) de nouveaux traitements dont l’efficacité serait améliorée. L’immunothérapie semble être une nouvelle approche du traitement des personnes infectées par le VIH. Deux voies sont explorées : l’interleukine 2 et la vaccinothérapie. L’immunothérapie par l’interleukine 2 vise à renforcer le système immunitaire dans son ensemble et permet, associé à un traitement antirétroviral, l’augmentation du nombre de lymphocytes CD4. La vaccinothérapie consiste en l’injection de préparations vaccinales constituées par exemple de certains gènes sélectionnés du VIH, inclus dans un virus porteur (dénué de tout danger pour l’homme). Les cellules parasitées par le vecteur produisent alors certains constituants du VIH que le système immunitaire reconnaît. Celui-ci répond en induisant ou en augmentant la production de CD8 ou de lymphocytes cytotoxiques dirigés contre le virus. Ces différentes approches ne sont pas exclusives les unes des autres et pourraient même être complémentaires et nécessairement associées à une multithérapie. Les trithérapies renforcent le rôle du médecin traitant car le succès du traitement semble être lié à sa précocité. Le médecin est donc un acteur important dans le dépistage précoce de l’infection à V.I.H. en particulier lors de la primo infection soit 2 à 6 semaines après la contamination. En effet, la primo infection est une période de haute transmissibilité. Durant cette phase, le virus se multiplie activement et diffuse dans l’ensemble de l’organisme. Un traitement dès ce moment en limitant la réplication virale, permettrait une évolution plus favorable à long terme.

      

      

      Un dépistage précoce...

      

       De nouveaux examens biologiques permettant de mesurer très tôt l’activité du virus et l’efficacité des traitements ont été mis au point depuis 1996. Vers le 15e jour après la contamination, il est maintenant possible de détecter le virus on recherche l’antigène P24, une protéine d’enveloppe du virus dans le sang puis à partir de 21e jour (en moyenne) après la contamination, la détection des anticorps produits par l’organisme en réaction à la présence du virus devient possible. Auparavant seul le test de recherche des anticorps trois mois après la dernière situation à risque était réalisable. (Ce test est néanmoins toujours le seul qui permet de déterminer avec certitude une séronégativité). Tous les tests sont pris en charge à 100 % par la Sécurité Sociale ou pratiqués gratuitement dans les consultations de dépistage. Le dépistage a pour fonction de permettre la connaissance de son statut sérologique (1 personne sur 4 ignore qu’elle est contaminée) et d’avoir accès à un conseil personnalisé de prévention. Il permet également la recherche diagnostic de l’infection en vue du traitement avant l’apparition de symptômes de la maladie SIDA. C’est pourquoi les campagnes de prévention menées par le Ministère de l’emploi et de la solidarité en 1998 sont consacrées au dépistage «SIDA. Aujourd’hui, on peut faire beaucoup. Mais rien sans vous» (Comité Français d’Education pour la Santé. Mars 1998). Actuellement en France, les associations oeuvrant dans le domaine estiment entre 30 000 et 40 000 le nombre de personnes porteuses du VIH/SIDA sans le savoir. En 2002, plus de la moitié des patients chez qui on a diagnostiqué un SIDA, ont découvert seulement à cette occasion leur séropositivité. On peut dès lors supposer que ce diagnostic a été établi suite à l’apparition d’une maladie opportuniste, soit généralement 7 à 10 ans après une contamination. » (La Tutélaire, octobre 2003) Il apparaît en effet du plus grand intérêt pour l’individu de connaître les risques pris lors d’un rapport sexuel ou d’une prise de drogue par voie intraveineuse. Néanmoins, la perspective de mise à disposition de traitement la plus tôt possible et au plus grand nombre ne doit pas faire oublier que la prévention du risque reste le seul moyen de se protéger du SIDA. La multithérapie ne doit en aucun cas être présentée comme une alternative à la prévention. La possibilité de contenir l’évolution de la maladie peut apparaître comme un facteur de démobilisation pour les individus ou les institutions. « Les nouvelles possibilités thérapeutiques ne remettent pas en cause les moyens de prévention, dont l’application relève de la responsabilité de chacun pour soi-même et pour les autres : relations sexuelles exclusives entre personnes non atteintes par le VIH, sexualité sans pénétration (caresses, masturbation...), utilisation du préservatif lors de rapports sexuels avec pénétration, non partage de seringue et du matériel d’injection chez l’usager de drogue....  On sait cependant que la contamination survient fréquemment chez les personnes ayant auparavant fait une démarche de dépistage et qui, à ce moment, n’étaient pas atteintes. Un dépistage négatif suscite parfois indûment un sentiment de sécurité qui peut avoir pour effet d’entraîner un relâchement dans les comportements préventifs. La contamination témoigne ainsi de la nécessité mais aussi de la difficulté de la prévention :

       _ difficulté de maintenir une prévention au long cours chez des personnes particulièrement concernées par le risque de contamination ;

       _ difficulté d’adopter des conduites préventives pour des personnes déstabilisées par des changements survenant dans leur existence. »

      ( CFES, décembre 1999)

      

      

      Pour une prise en charge thérapeutique immédiate

      

       Le diagnostic signifie pour la personne, la mise en place dans les 48 heures d’un traitement contraignant, dont le bénéfice ne sera qu’au prix d’une observation stricte de la prescription pendant 4 semaines. La décision de mise en route du traitement est prise selon l’évaluation de la prise de risque. « Dans les 48 heures qui suivent une situation à risque (ex: blessure par un objet souillé de sang contaminé, relation sexuelle sans consentement, relation sexuelle sans préservatif ou encore rupture ou glissement du préservatif au cours d’une relation sexuelle): la mise en route d’un traitement antirétroviral après exposition, d’une durée d’un mois, tente d’éviter la contamination. Ces situations à risque nécessitent de consulter un médecin en urgence, soit au service des urgences d’un hôpital, soit dans une Consultation de dépistage anonyme et gratuit (on peut aussi s’adresser à un médecin de ville). Un traitement après exposition peut être indiqué. Il doit débuter au mieux dans les toutes premières heures et, en tout cas, dans les 48 heures qui suivent l’exposition au risque. Aucun test actuellement disponible ne peut encore, à ce moment détecter une éventuelle présence de virus. Le médecin, toutefois analysera avec la personne, la situation précise. En fonction de l’importance du risque et des facteurs qui peuvent l’aggraver, il prescrira ou non un traitement pour prévenir une possible contamination. L’évaluation du risque encouru est faite sans appréciation morale sur les pratiques de la personne concernée ».... Le traitement, lorsqu’il est prescrit, associe plusieurs antirétroviraux. Il s’agit d’un traitement non dénué d’effets indésirables, lourd et nécessitant une surveillance régulière par un médecin spécialiste. « Ce traitement a jusqu’à maintenant été prescrit à des professionnels de santé blessés avec des aiguilles souillées de sang contaminé par le VIH. Dans ces circonstances, il a été démontré qu’un traitement par l’AZT seul, pendant un mois diminue le risque de contamination de 80 %. Ce traitement a également été prescrit à des personnes blessées par des objets souillés de sang. On sait aujourd’hui que le risque de contamination lors de pratiques sexuelles non protégées ou lors de partage de seringue entre usagers de la drogue est similaire à celui encouru à l’occasion d’accidents professionnels. Un traitement après l’exposition, pris dans de bonnes conditions, peut limiter les risques de contamination lors de ces différentes situations. Le traitement après exposition a pour objectif de tenter d’éviter la contamination par le VIH et donc de limiter le nombre de personnes infectées. Son efficacité n’est pas absolue. La rapidité avec laquelle il est mis en route et le respect, par la personne soignée, des modalités de prises des médicaments ont une grande influence sur l’efficacité des traitements. A la suite du traitement, plusieurs tests sanguins seront effectués pour déterminer si la personne a été infectée ou non. Afin de tenir compte du fait que le traitement prophylactique est susceptible de retarder la réponse immunitaire de l’organisme, les tests seront réalisés vers la troisième semaine, puis au troisième et cinquième mois après l’arrêt du traitement. Le traitement est proposé par le médecin, qui doit en expliquer les avantages, les difficultés et les incertitudes. Toute personne est libre d’accepter ou de refuser ce traitement après avoir été informée. Le traitement après exposition ne peut et ne doit en aucune façon se substituer aux moyens de prévention qui s’offrent au choix de chacun: utilisation du préservatif, sexualité sans pénétration, non partage du matériel d’injection ou de préparation en cas d’usage de drogue. » (CFES, décembre 1999)

      

      

      La prévention doit rester au cœur de la lutte contre l’infection.

      

       Quinze ans après le début de l’épidémie, les professionnels de la lutte contre le SIDA s’inquiètent car ces dernières années, la prévention semble s’être relâchée. SIDA Info Service constate depuis deux ans une baisse de vigilance dans les comportements sexuels chez les jeunes gens. Plusieurs faits viennent étayer ces craintes :

       _ l’utilisation du préservatif semble entré dans les moeurs des jeunes (de 15 à 24 ans) mais l’utilisation n’est pas continue et la prise de risque est fréquente ;

       _ l’augmentation de la proportion de malades ne connaissant leur séropositivité que lorsqu’ils ont un SIDA déclaré.

      La proportion de personnes déclarant avoir encouru un risque augmente (15,3 % en 1997 à

      17,2 % en 1999) et les MST sont en recrudescence depuis 1998. Ces comportements à risques ne semblent pas liés à une mauvaise information ni à un manque d’information mais à une mauvaise perception du risque (certaines personnes pensent qu’elles n’ont que des partenaires sains, qu’elles ne seront jamais contaminées), à une difficulté à mettre en adéquation opinion et comportement (je connais les risques, le moyen de prévention, je suis convaincu que le préservatif est « le moyen » de prévention mais je ne le porte pas toujours). D’autre part, une confiance trop grande dans les traitements dont la médiatisation fait peut-être oublier qu’ils ne guérissent en aucun cas la maladie et aussi un goût certain pour la provocation, l’envie de frôler la mort, de se sentir un danger pour les autres.... accentuent ce phénomène. Le relâchement de la prévention et ces conduites à risques ont alerté les professionnels de la santé. Une campagne d’affichage a eu lieu l’été 2000 :

       « Le SIDA on en meurt encore.

       1 championnat d’Europe tous les 4 ans

       1 personne contaminée par le virus du SIDA toutes les 2h en France. »

      La journée mondiale du SIDA du 1er décembre 2000 a permis de soulever ce problème dans les différents médias. Cette prévention qui doit passer par l’école reste encore trop généraliste. L’éducation sexuelle est toujours balbutiante. Les informations reçues semblent pertinentes et comprises mais le dialogue nécessaire à l’appropriation d’un comportement de prévention n’est pas généralisé. L’utilisation du préservatif implique un souci de sa santé et de la santé de l’autre qui ne se construit que par les voies de l’éducation.

      

      

      

      

       L’hépatite B

      

       L’hépatite B fait partie d’une famille de maladies qui atteignent le foie. Ces hépatites ont pour origine un virus qui se multiplie dans les hépatocytes, provoquant une inflammation et un mauvais fonctionnement du foie et dans un certain nombre de cas sa destruction. Dans les années 1930-1940, deux formes de jaunisse (signe à partir duquel on diagnostiquait alors les hépatites : le blanc des yeux et la peau se colorent en jaune par accumulation de bilirubine

      (pigment biliaire)) étaient identifiées. Elles se distinguaient notamment par le mode de transmission. L’hépatite A qui se transmet par contact avec les matières fécales d’individus infectés et l’hépatite B qui se propage par voie sanguine. Le virus de l’hépatite B VHB sera identifié au milieu des années 1960 et le VHA 10 ans plus tard. « Dans les années 1970, des tests plus fiables de l’hépatite A et de l’hépatite B sont mis au point, mais les médecins constatent qu’une proportion notable des hépatites post-transfusionnelles ne sont causées par aucun de ces deux virus : cette nouvelle maladie est alors nommée « hépatite ni A ni B ». (Di Bisceglie, Bacon, février 2000) Ce n’est qu ’en 1988 que le virus de l’hépatite C est identifié à partir d’échantillons de sérum de chimpanzés infectés. Ces trois virus sont responsables de la majorité des cas d’hépatites virales. Pour lutter contre les hépatites A et B un vaccin existe pour chacune d’elle, mais dans le cas de la lutte contre l’hépatite B, la France a adopté une position qui semble particulière. En effet, récemment des effets indésirables attribués à la vaccination ont fait l’objet de campagnes médiatiques antivaccinales, faisant chuter la vente des vaccins de 45 % entre 1997 et 1998.

      

      

      L’hépatite B: un vaccin contesté

      

       Lors de l’été 1988, le nombre de sujets infectés par le virus de l’hépatite B (VHB hépadnavirus) est estimé à 200 millions (nombre de porteurs chroniques dans le monde : personnes porteuses du VHB pendant plus de six mois).(MGEN, septembre 1998) Selon l’O.M.S., 280 millions de personnes étaient infectées en 1989, 300 millions en 1995, 350 millions en 1999. Deux cas d’hépatite B sur trois sont recensés chez les jeunes de 15 à 29 ans. L’hépatite B représente le problème majeur des hépatites virales par le nombre de sujets atteints, par le risque de chronicité (10 sur 100) avec des évolutions souvent graves (cirrhoses, cancers (hépatocarcinomes : le virus de l’hépatite B serait en cause dans 80 % des cancers primitifs du foie et provoquerait annuellement 1 à 2 millions de décès) ...) et également par ses formes aiguës redoutables (hépatites fulgurantes : 1 sur 1000). En France, en 1997, le nombre de sujets contaminés est estimé à 150 000, l’hépatite B serait à l’origine d’au moins 1000 décès, d’autre part l’hépatite B est la première maladie professionnelle des responsables de la santé. Dans la plupart des établissements hospitaliers, on n’a plus rencontré chez les soignants de cas d’hépatite B depuis la vaccination obligatoire (700 cas en 1980, 76 en 1992). A la fin des années 80, c’était la contamination par voie sanguine qui était mise en évidence. «L’hépatite B est plus rarement due à un rapport sexuel qu’à une contamination sanguine». (dépliant «Les M.S.T.», C.N.A.M.T.S., 1986) Puis l’accent fut mis sur la transmission sexuelle et les adolescents. La vaccination apparaît être le seul moyen permettant de prévenir l’infection, étant donné que la transmission du virus se fait par les sécrétions génitales mais aussi par la salive et le sang contaminés. Le vaccin Genhevac B mis au point par l’institut Pasteur en 1989 est le premier vaccin français obtenu par recombinaison génétique. Les gènes S (codant la protéine la plus abondante de l’enveloppe responsable de la production d’anticorps anti-HBs) et pré S2 (portant des déterminants reconnus par les lymphocytes T auxiliaires qui activent les lymphocytes B producteurs d’anticorps neutralisant le virus) ont été clonés dès 1978 puis insérés dans un plasmide vecteur introduit dans les cellules ovariennes de hamster chinois. La production industrielle d’antigènes se fait en continu (pendant plusieurs semaines d’affilée) dans des fermenteurs de plusieurs centaines de litres. Ce nouveau vaccin permet d’immuniser des sujets atteints de cirrhose alcoolique, immunodéprimés, insuffisants rénaux ou hémodialysés, pour lesquels les vaccins obtenus selon le même procédé à partir de la levure Saccharomyces cerevisiae n’agissaient pas. De plus sa production industrielle résout les problèmes d’approvisionnement lié à l’obtention des vaccins de 1ère génération à partir du plasma d’individus infectés (porteurs chroniques).

      

      Une vaccination très recommandée

      

       Depuis le 15/01/1991, la vaccination contre l’hépatite B est obligatoire et à la charge de l’employeur pour les personnels de santé (personnels soumis à l’article L-10 du code de la Santé Publique) ainsi que les élèves ou étudiants des établissements préparant à l’exercice des professions médicales. En 1995, 21 % des Français étaient vaccinés (contre 12 % en 1992). Quoique la vaccination destinée à empêcher l’hépatite B s’adresse essentiellement à des groupes à risque outre les personnels de santé : candidats à l’hémodialyse ou à une transplantation d’organe, nouveau-nés de mères contaminées et toxicomanes, voyageurs séjournant en zone d’endémie, le ministre de la santé a toutefois recommandé début 1994 de l’appliquer également aux adolescents. L’hépatite B est désormais considérée comme une M.S.T. à part entière : dans 35 % des cas elle est effectivement transmise par voie sexuelle. La vaccination contre l’hépatite B est recommandée par le calendrier des vaccinations 1995 pour les adolescents et les nourrissons car le taux de passage à la chronicité de l’hépatite B est très élevé chez l’enfant. Deux schémas vaccinaux existent en trois injections réalisables en une année scolaire ou en quatre pouvant être effectués en même temps que les autres vaccinations du nourrisson. La vaccination a donc été particulièrement recommandée aux adolescents et jeunes adultes afin d’éviter les risques accrus de contamination par voie sexuelle. De plus l’adolescence est la période où le vaccin est le plus efficace, alors que dès que la population est plus âgée, la réponse au vaccin est moins bonne. Pour les plus jeunes, la vaccination apparaît être le meilleur moyen de protection par anticipation, avant l’âge des premières relations sexuelles. Cette stratégie devrait permettre une réduction de l’incidence de l’hépatite B de 50 % en 10 ans. ( ministère du Travail et des Affaires sociales, novembre 1995) Les taux de couverture dans la population générale en France sont variables selon les tranches d’âge. Ainsi en décembre 1998, on pouvait estimer le taux de couverture pour les 0-12 ans à 36 %, les 13-15 ans à 88 %, les 16-20 ans à 62 %, les 25-34 ans à 27 %, les 45-54 ans à 10 % et au delà à 10 %. Pour les nourrissons, le taux de couverture est de 30 % contre plus de 80 %, voire 90 % en Italie ou aux U.S.A.. « La stratégie vaccinale française s’inscrit dans une stratégie mondiale de lutte contre l’hépatite B recommandée par des instances internationales, dès 1991, ayant pour objectif une vaccination de l’ensemble de la planète au début du troisième millénaire. Le vaccin contre l’hépatite B est actuellement intégré dans les schémas vaccinaux dans plus de 100 pays » ... « Dans les zones d’incidence moyenne comme la France ou les Etats-Unis, la seule vaccination des groupes à haut risque (professionnels de santé, nouveau-nés de mères Ag Hbs positives) réduirait au bout de 25 ans, la proportion de porteurs chroniques seulement de 10 % ; pour obtenir une réduction des porteurs du virus d’au moins 90 % sur un quart de siècle, il faut vacciner simultanément les groupes à haut risque, les jeunes adolescents et les nourrissons. » (Denis, 2000 )

      Le Ministère de la Santé a lancé, en juillet 1994, une campagne nationale de vaccination auprès des adolescents. Cette opération poursuivie pendant 4 ans avait pour objectif de vacciner au moins 60 % des élèves de sixième. Le Ministère de l’éducation Nationale, de l’Enseignement supérieur et de la Recherche en a confié la réalisation aux personnels du service de promotion de la santé en faveur des élèves (SPSFE), sous la responsabilité administrative des chefs d’établissement. Des crédits spécifiques ont été dégagés pour mener à bien les opérations de vaccination et les mesures budgétaires obtenues initialement à titre non réductible ont fait l’objet de consolidations en loi de Finances, dès 1996 pour ce qui concerne les crédits de fonctionnement et au budget 1997 pour les vacations destinées à renforcer le potentiel du service de promotion de la santé en faveur des élèves. A la fin de l’année scolaire 1994-1995, 57 % de l’effectif des élèves de sixième avait reçu les 3 doses, soit une vaccination complète par le SPSFE et 16 % de cette même population avaient été vaccinés par leur médecin traitant. Soit une couverture vaccinale de 73 %. A la fin de l’année 1995-1996, la couverture vaccinale était de 73,6 % mais la part des élèves vaccinés par leur médecin traitant avait presque doublé ( de 16 % à 29,4 %). Une des explications données par

      E. Senèterre, Bureau de la vie de l’élève, de l’action sociale et de la santé scolaire DLCD1 « est que le fait d’informer les élèves et leur famille ainsi que de vacciner un enfant dans une famille, a sans aucun doute, incité d’autres membres de la famille à se faire vacciner. Cette évolution devrait se poursuivre au fil des années. » (« Campagne de vaccination des élèves de sixième contre l’hépatite B », Note d’information 97.07, Direction de l’évaluation et de la prospective, Ministère de l’Education Nationale, de l’Enseignement Supérieur et de la Recherche, février 1997) En 1995, une cassure s’est produite dans cette dynamique vaccinale en raison d’effets indésirables rapportés consécutivement à des vaccinations.

      

      

      Des effets indésirables révélés

      

       Le Comité Français d’Education pour la Santé déclarait dans une brochure «L’hépatite B, se faire vacciner c’est l’éviter» datant de 1995 : «les effets indésirables du vaccin sont anodins (irritation ou douleur locale transitoire, nausée ou poussée de fièvre légères) ou inexistants. De même l’ADOSEN : l’éducation au service de la santé dans un supplément au bulletin de mars 1995, précisait que«Le vaccin (contre l’hépatite B) est efficace, ne provoque pas d’effets secondaires, est remboursé par la Sécurité Sociale. Il n’y a pas de contre-indication en particulier pour la femme enceinte ». La note d’information 97.07 de la D.E.P. estimait que les effets indésirables de la vaccination chez les élèves ont représenté 2,6 pour 1000 injections lors de la campagne 95-96 (contre 2,3 pour 1000 en 1994-1995). Dès avril 1995 la revue scientifique La Recherche signalait qu’outre les effets indésirables liés à la vaccination contre l’hépatite B, signalés dans les notices des vaccins (douleurs dans 20 à 30 % des cas, irritations de la peau, fièvre, maux de tête, vomissement, prurit diarrhée, somnolence...), des effets plus ou moins graves mais transitoires (arthrite, inflammation des reins) pouvaient être expliquées par des mécanismes immunitaires. «Surtout, quelques cas de neuropathies, notamment de sclérose en plaques, une maladie très invalidante due à l’atteinte du système nerveux central, ont été observés dans les deux ou trois semaines suivant la vaccination, mais sans qu’un lien causal avec celle-ci soit formellement établi.». Une enquête nationale de pharmacovigilance sur les vaccinations au deuxième semestre de 1994 n’a pas démontré l’existence d’un risque grave, le bénéfice de la vaccination étant donné le risque de contamination par l’hépatite B et ses conséquences n’est alors pas remis en cause. « En 1991, une lettre au Lancet rapportait deux cas d’atteinte démyélinisante centrale après vaccination contre l’hépatite B, d’autres cas furent rapportés surtout à partir de 1994, mais il s’agissait de publications isolées dans lesquelles l’éventuel lien n’était que chronologique. Dès 1994, une enquête nationale de pharmacovigilance a été initiée. Il semble que la thèse de Grezard ait en 1996 attiré l’attention sur le sujet évoquant des centaines d’accidents vaccinaux survenus partout dans le monde. Dans le climat tendu du scandale du sang contaminé, plusieurs journalistes de magazines à grand tirage ou d’émissions ont alerté l’opinion sur ces vaccinations « dangereuses » en tirant argument de la circulaire de l’Agence du médicament du 2 novembre 1995 mentionnant la sclérose en plaques (SEP) dans les contre-indications à la vaccination contre l’hépatite B » (Denis, 2000) Dans son numéro d’avril 1998, le magazine de vulgarisation scientifique Science et Vie titrait: « Une affaire de l’ampleur de celle du sang contaminé risque-t-elle d’éclater bientôt ? » La vaccination contre l’hépatite B entraîne des effets secondaires souvent redoutables, dont les cas se multiplient. Or les patients n’en sont pas avisés... » (Rossion, avril 98) Cet article reprend les propos du Dr Philippe Jakubowicz, président de l’association Réseau Vaccin Hépatite B (REVAHB: association de défense des victimes du vaccin de l’hépatite B, crée en février 1997) : « C’est la première fois qu’un vaccin a des effets secondaires si variés, si graves et si fréquents. Vingt millions de Français sont vaccinés, et on estime qu’environ un sur mille (20 000) a été victime d’un accident. Ces accidents couvrent un éventail d’une soixantaine de pathologies, dont la redoutable sclérose en plaques.» Toujours selon le Dr Jakubowicz, l’Agence du médicament (organisme chargé de la surveillance des accidents liés aux médicaments) n’a répertorié que 852 accidents depuis 1988, soit beaucoup moins statistiquement que son association REVAHB (au bout d’un an d’existence celle-ci avait déjà recensé 692 accidents chez les personnes vaccinées). « Il est évident qu’on minimise le problème pour ne pas affoler la population. » Le tribunal de Nanterre a reconnu le 5 juin 1998, la responsabilité d’un fabricant de vaccin contre l’hépatite B dans la survenue d’une sclérose en plaques. La multinationale pharmaceutique Smithkline Beecham a été condamnée à verser respectivement 50 000 et 80 000 francs à deux personnes atteintes des premiers symptômes d’une sclérose en plaques dans les semaines ou dans les mois qui ont suivi des injections d’Engerix B produit par cette firme. Le tribunal a estimé (en se fondant notamment sur le fait que depuis 1994, les différentes éditions du Vidal mentionnent les symptômes de la sclérose en plaques parmi les effets indésirables pouvant « exceptionnellement » apparaître au lendemain d’une telle vaccination), dans les deux cas, qu’ «il existe un faisceau d’éléments permettant de conclure avec suffisamment de certitudes, que la vaccination par le vaccin Engerix B a été l’élément déclencheur de la maladie.» «  Pour les juges, la responsabilité du fabricant peut-être recherchée en vertu d’un article du Code de la consommation qui dispose que «les produits et services doivent dans les conditions normales d’utilisation ou dans d’autres conditions raisonnablement prévisibles par le professionnel, présenter la sécurité à laquelle on peut légitimement s’attendre et ne pas porter atteinte à la santé des personnes ». Selon le tribunal, ce texte impose à la firme une « obligation de résultat à laquelle tout utilisateur du produit peut légitimement s’attendre. » (Le Monde, 10.06.1998) Pourtant durant la même période d’autres points de vue se font entendre. Ainsi Philippe Kourilsky, professeur au Collège de France et directeur de l’Unité INSERM 277 à l’Institut Pasteur, propose une explication à cette campagne de dénigrement : « Le phénomène, peut être lié au fait qu’il s’agit d’une des premières vaccinations de masse de l’adulte, résulte d’un dérapage de l’information conjugué aux peurs d’une partie du public. Les articles de presse qui l’ont déclenché se fondaient sur le nombre de scléroses en plaques chez les vaccinés, en omettant de comparer ce dernier à la fréquence de la maladie dans l’ensemble de la population. De telles dérives illustrent à la fois la difficulté d’informer et une carence sociale dans la perception et la gestion des risques. » ... « Il est important de noter que, chez le nourrisson, elle est contestée par certains en raison de son « inutilité » plus que de son « insécurité ». Or, elle offre une protection de très long terme qui pourrait s’étendre de l’enfance à l’âge adulte. Afin d’élargir la couverture sans peser sur le calendrier vaccinal, les fabricants, avec l’accord et l’appui des autorités de santé, se sont engagés depuis plusieurs années dans le développement lourd et compliqué de combinaisons pédiatriques qui incluent l’hépatite B. » ... « La France est, en 1998, le seul pays où s’est développée une vive polémique : les vaccins contre l’hépatite B sont accusés de favoriser le développement de pathologies diverses, dont la sclérose en plaques. Des actions en justice ont été intentées contre les fabricants de vaccin, et les plaignants souhaitent aujourd’hui contraindre les pouvoirs publics à arrêter la vaccination de masse. Mais quels sont les faits ? Au plan statistique, l’Agence du médicament, au 31 mars 1998, avait relevé 271 cas déclarés d’atteintes démyélinisantes pour 20 à 25 millions de vaccinés, alors que, d’après le taux d’incidence générale de ces maladies ( 3 à 5 pour 100000), on en attendait deux à trois fois plus chez les vaccinés. On trouve des chiffres semblables dans d’autres pays. En 1997, l’OMS a réaffirmé la sécurité du vaccin et rappelé que l’incidence de la sclérose en plaques n’est pas augmentée chez les deux milliards d’individus qui, dans le monde, ont été exposés au virus de l’hépatite B (et donc à de fortes doses de l’antigène vaccinant) et, notamment, chez les 350 millions de porteurs chroniques. D’ailleurs, la prévalence de l’hépatite B décroît du Sud vers le Nord, alors que celle de la sclérose en plaques augmente. » ... « La contestation de la vaccination n’est pas neuve. Des hypothèses d’association avec diverses pathologies sont régulièrement formulées dans tel ou tel pays et non moins régulièrement invalidées sur le plan statistique. On ne peut, en matière de vaccination comme de médicament, prétendre à la sécurité absolue, et les calculs coût-bénéfice, qui font sens au plan collectif, sont difficiles à gérer au plan individuel. En France (contrairement à l’Italie, par exemple), la vaccination contre l’hépatite B est recommandée, mais non imposée. Il appartient aux individus de peser leur responsabilité face à un acte vaccinal qui, au plan collectif, contribue à limiter la diffusion d’une maladie grave et, au plan personnel, élimine les risques d’une hépatite parfois mortelle et des cancers qui peuvent en résulter. » (Kourilsky, septembre 1998)    

      

      

      Le principe de précaution mis en application

      

       En 1998, à la demande de Bernard Kouchner, alors Secrétaire d’Etat à la santé, la campagne collective chez les enfants de 6ème a été suspendue compte tenu des polémiques véhiculées par les médias. En mars 1999, la multinationale Smithkline Beecham publiait un livre blanc sur la vaccination contre l’hépatite B. Ce livre blanc délivré gratuitement en pharmacie est préfacé par le Dr François Denis, professeur de Bactériologie-Virologie-Hygiène à l’Université de Limoges. « La vaccination des jeunes adolescents (11-13 ans) n’est pas arrêtée et elle continue à être fortement recommandée par le Secrétaire d’Etat à la Santé et l’OMS. Seule la vaccination collective systématique en milieu scolaire est suspendue provisoirement, la vaccination individuelle par le médecin de famille, dans le cadre d’une consultation en présence des parents, devenant la solution préconisée (celle-ci représentait déjà environ 50 % des vaccinations des adolescents). »... « Cette mesure s’explique par le souhait du Ministère de retrouver un environnement calme, la vaccination de masse des écoliers ayant été mal comprise par une partie de l’opinion. C’est désormais la vaccination personnalisée, par le médecin de ville, qui représente la solution idéale. » ...  Une analyse du bénéfice de la vaccination a été faite. « Elle figurait dans le dossier de presse du Secrétaire d’Etat à la Santé. En prenant des hypothèses donnant un risque maximal pour le vaccin et un bénéfice minimal en terme de complications liées aux hépatites, on peut avancer que :

       _ si on vaccine à 11 ans toute une classe d’âge, on observe dans la pire des hypothèses une à deux affections démyélinisantes imputables au vaccin ;

       _ si on ne vaccine pas ( et qu’on ne vaccine plus ces enfants), il se produira sur 20 ans dans chacune de ces cohortes :

       3 hépatites fulminantes,

       60 à 150 infections chroniques cirrhogènes,

       12 à 30 cancers du foie.

      On peut émettre l’hypothèse que, en l’absence de la poursuite des programmes de vaccination, l’incidence de la maladie aura tendance à remonter, rendant les risques de non vaccination plus élevés. » Par ailleurs, « L’OMS a immédiatement réagi à la décision du Ministère français par un communiqué de presse, en exprimant sa crainte que cette décision ébranle la confiance dans le vaccin et soit suivie sans raison dans d’autres pays. » La réflexion au sujet de la dose de rappel avait commencé depuis plusieurs années et le Comité Technique des Vaccinations avait plus ou moins annoncé cette décision avant qu’elle ne soit effectivement prise pendant la polémique sur la vaccination. « Il est apparu que les sujets immunocompétents répondeurs après 3 ou 4 injections (taux d’anticorps anti-HBs > 10 mUl/ml);

      _ restaient protégés même avec un taux résiduel inférieur au seuil considéré comme protecteur ;

      _ ne faisaient pas d’hépatites fulminantes, d‘hépatites symptomatiques et/ou d’hépatites chroniques même en l’absence d’injection de rappel ( à 5 ans ou 10 ans...) grâce à une « mémoire » immunologique permettant une réponse anamnestique rapidement protectrice en cas de contamination. »

      Aujourd’hui, 2 études viennent confirmer l’absence de risques du vaccin contre l’hépatite B. Une vaste étude canadienne, publiée dans le Lancet (5 février 2000) démontre l’absence d’association entre vaccination et apparition de maladies neurologiques comme la sclérose en plaques. Aussi, les autorités canadiennes ont-elles décidé de ne modifier en rien leur important programme de vaccination en milieu scolaire. « Le mois dernier, l’Agence française de sécurité sanitaire des produits de santé (AFSSAPS) a rendu publiques ses conclusions issues de l’analyse des informations recueillies ces derniers mois : « le réexamen des données tant épidémiologiques qu’issues de la notification de pharmacovigilance ne permet pas de conclure à l’existence d’une association entre la vaccination de l’hépatite B et la survenue d’atteintes démyélinisantes ou de maladies auto-immunes. Les résultats permettent d’exclure l’existence d’un risque élevé (...). » Malgré l’innocuité admise du vaccin et les recommandations de l’OMS, la campagne collective chez les enfants de classe de sixième, n’est pas reprise... Un principe de précaution que l’on pourrait opposer à un autre principe de précaution : celui de protéger efficacement contre les hépatites. Car depuis l’arrêt de la vaccination en milieu scolaire, la perte de confiance de la population générale à l’égard de ses bénéfices se vérifie par une baisse d’achat de 70 % des doses vaccinales. Alors qu’environ 1,8 millions de nourrissons ont été vaccinés en France et qu’aucune affection neurologique démyélinisante n’a pu être objectivée, la couverture vaccinale des nourrissons est en chute libre. » (ADOSEN, avril 2000) « L’absence d’arguments scientifiques et les résultats statistiques non significatifs n’ont pas permis de calmer la polémique, pas plus que la démonstration d’un « rapport bénéfices/risques » en faveur de la vaccination pour les différentes cibles actuelles de la vaccination... et la dynamique de la vaccination contre l’hépatite B est cassée. Il existe des précédents qui doivent faire réfléchir. Ainsi, il y a quelques années, des articles reprenant des arguments d’associations antivaccinales avaient jeté le discrédit sur le vaccin anti-coquelucheux à germe entier ; ces actions ont entraîné des reculs importants de la couverture vaccinale dans certains pays. Or, la revue récente de GANGAROSA, et al signale que l’incidence de la coqueluche est actuellement 10 à 100 fois plus faible dans les pays qui ont maintenu la vaccination que dans ceux qui ont poursuivi les campagnes antivaccinales. Par ailleurs, ce même vaccin que l’on avait accusé d’être responsable de morts subites du nourrisson, vient d’être innocenté, mais sans que la presse reprenne cette information « négative ». Le vaccin contre l’hépatite B d’origine plasmatique avait déjà dans le passé été accusé à tort de transmettre le virus du SIDA, information fausse qui avait déjà retardé la progression de la vaccination. A ce jour, un certain nombre d’effets indésirables ont certes été rapportés à l’agence du médicament, puis à l’Agence Française de Sécurité Sanitaire dans le cadre de la pharmacovigilance, mais ils sont comptabilisés sans préjuger qu’ils relèvent de simples coïncidences ou d’un éventuel lien de causalité. Les études de cas-témoins mentionnées précédemment n’ont pas permis de prouver ce lien, elles sont actuellement poursuivies en France. Les données allemandes récentes ne concluent pas à un lien. Des données américaines ne concluent pas à une relation, pas plus que les conférences d’experts réunies par l’OMS. Il est possible que ces études, même portant sur des effectifs importants, ne parviennent pas à démontrer un lien statistique significatif entre la vaccination et les effets indésirables. Mais au nom du principe de précaution, on peut considérer comme relevant d’une contre-indication à la vaccination (ou au moins d’une précaution d’emploi), les sujets ayant des antécédents personnels de pathologies auto-immunes et des antécédents personnels et familiaux de pathologies démyélinisantes, notamment de SEP. On sait que des poussées de SEP peuvent être favorisées par des stimulations diverses du système immun, aussi bien que par des infections. Pour les patients présentant des antécédents personnels ou familiaux de SEP, la décision de vacciner (quel que soit le vaccin) doit être prise au cas par cas en fonction du rapport risque/bénéfice individuel. » (Denis, 2000)

      

      

      Selon l’OMS ( mai 2000), les hépatites B et C sont en constante progression et l’utilisation de seringues sales et d’aiguilles usagées serait responsable dans le monde de la contamination de 8 à 16 millions de personnes par le virus de l’hépatite B, de 2,3 à 4,7 millions par le virus de l’hépatite C. Si un vaccin dont l’efficacité est prouvée, existe pour lutter contre l’hépatite B, il n’en est pas de même pour l’hépatite C. Celle-ci est en passe de devenir un souci sanitaire majeur.

      

      

      

      

       L’hépatite C : un défi à relever

      

      

       Selon le mensuel La Recherche de février 1999, cette infection, qui constitue la première cause de transplantation du foie, toucherait environ 30 millions de personnes dans le monde et déjà 30 % des greffes de foie effectuées en France le sont par suite de l’hépatite C. Mais ces chiffres ne sont que des estimations fondées sur des études partielles. « En France, l’hépatite C touche entre 500 000 et 600 000 personnes, parmi lesquelles plusieurs centaines de milliers de cas ont été provoqués par des transfusions sanguines effectuées avant 1990, date après laquelle le dépistage du virus dans les dons du sang est devenu systématique. » (Découverte, mai 2000) Lors du 6ème symposium international sur l’hépatite C et les virus apparentés qui s’est tenu dans le Maryland en juin 1999, le chiffre de 170 millions de personnes infectées par le VHC de part le monde a été avancé- « soit largement 4 fois plus que le VIH. Et il est probable que, dans les années à venir, les maladies et cancers hépatiques dûs à ces virus aux Etats-Unis seront à l’origine de décès plus nombreux que le SIDA. » (brochure « l’hépatite C », octobre 1999) Dans les années 1990, l’origine nosocomiale de cette infection a été invoquée pour expliquer un tiers environ des cas. Mais depuis 1996, les C.L.I.N. (Comité de Lutte contre les Infections Nosocomiales) ont accompagné la prise de nouvelles mesures concernant la désinfection du matériel et les risques de contamination à l’hôpital ont décru. « 70 % des 5000 nouveaux cas enregistrés chaque année en France seraient liés à l’usage de drogues injectables et au rituel qui l’entoure  (échange de seringues et prêt du petit matériel de préparation) ». (Brochure « l’hépatite C », octobre 1999) D’autre part le matériel utilisé pour le tatouage et le piercing non ou mal stérilisé ainsi que des échanges de matériel de toilette constitueraient un risque non négligeable. Par contre la transmission par voie sexuelle est fortement controversée (sauf pour les rapports en période menstruelle). « Tous les piercings, du lobe de l’oreille comme des autres parties du corps, les tatouages dermographiques et les rasages mécaniques entraînent de minimes saignements ou de microscopiques projections de sang ou de liquides biologiques pas toujours visibles. Ces actes peuvent donc tranmettre des infections de personne à personne : l’infection peut passer - principalement - de client à client par le biais des instruments, mais aussi de l’opérateur vers le client et enfin du client vers l’opérateur en cas de piqûre accidentelle. » (plaquette INPES, 2003) Ces différents actes peuvent ainsi entraîner une contamination par le virus de l’hépatite C mais aussi celui de l’hépatite B ou encore par le VIH. Ainsi l’Institut National de Prévention et d’Education pour la Santé propose en 2003 une plaquette d’information intitulée: « Piercing Tatouage Risques d’infections Mesures élémentaires de prévention ».

      

      A la différence de nombreuses autres infections virales, le début d’une infection par le VHC passe inaperçu dans 80 % des cas et il s’écoule en moyenne une quinzaine d’années avant que l’on ne découvre les dégâts qu’elle a pu provoquer. Le système immunitaire d’environ 15 à

      25 % des patients infectés parvient à vaincre le virus et à l’éliminer du sang. Les 75 à 85 % autres patients développent alors une infection chronique. Dans 10 à 20 % des cas d’hépatite chronique une cirrhose se déclare et 1 à 5 % des patients développent un cancer du foie (carcinome hépatocellulaire). La question qui se pose pour un patient donné est de savoir si sa propre évolution va être défavorable. Et jusqu’à présent les médecins ont des difficultés à y répondre.

      

      Des traitements curatifs existent mais ne sont pas dénués d’inconvénients. Jusqu’en 1998 le seul traitement proposé était l’injection d’interféron, messager chimique naturel du système immunitaire. Mais seuls moins de 20 % des patients éliminaient le virus. Ce pourcentage augmente (jusqu’à 40 % de succès) lorsqu’on associe l’interféron à un antiviral : la ribavirine. Mais ces traitements coûtent cher (environ 9000 euros pour un an de traitement) et « provoquent chez la plupart des patients de pénibles symptômes de type grippal. » « Ces résultats ont suscité un débat animé : faut-il traiter les patients asymptomatiques ? Pour Harvey Altet, le fort taux d’échecs et la toxicité incitent à la prudence. « Les laboratoires poussent tout le monde à traiter tout le monde, alors que c’est souvent une maladie bénigne » précise-t-il. Et il note que le traitement perturbe sérieusement la vie de la plupart des patients. » Néanmoins, il est nécessaire de souligner que l’interféron bloque la progression vers la cirrhose en diminuant l’inflammation du foie, sa nécrose et la formation de cicatrices. Ainsi tous les malades peuvent théoriquement tirer bénéfice du traitement même si certains d’entre eux restent porteurs du virus. « Aujourd’hui, les cliniciens cherchent à affiner les traitements et testent des versions améliorées de l’interféron et de la ribavirine. Mais, comme avec les médicaments anti-VIH, on attend des progrès plus importants de composés conçus spécifiquement pour s’attaquer à des protéines clés du VHC.  D’autre part plusieurs équipes de biotechnologie se sont lancées dans la recherche d’un éventuel vaccin .» Mais « Comme dans les recherches sur les vaccins anti-VIH, il faut admettre qu’il y a peu de chances qu’une protection puisse être assurée par des anticorps dirigés contre des protéines virales qui changent rapidement. » (Cohen, novembre 1999) En effet, pour les auteurs des « défis de l’hépatite C »: « la mise au point d’un vaccin est douteuse, car l’organisme n’acquiert pas d’immunité contre le virus une fois qu’il a été infecté, et même des animaux qui ont éliminé le virus de leur organisme peuvent être réinfectés. Or des millions de personnes infectées de manière chronique risquent une atteinte hépatique grave. » (Di Bisceglie, février 2000) Si ces recherches aboutissent, les essais cliniques chez l’homme seront sans doute difficiles tant sur le plan logistique qu’éthique. Un plan national de lutte contre l’hépatite C a été lancé en 1999 par Bernard Kouchner, secrétaire d’Etat à la Santé et à l’Action sociale. Prévu sur 4 ans, ce plan dispose d’un budget d’environ 90 millions de francs, répartis entre le renforcement de l’accès au dépistage (d’ici 2002, 75 % des personnes contaminées doivent connaître leur statut sérologique contre 40 % en 1999) dans des centres de dépistage anonyme et gratuit, la réduction des risques de contamination, l’amélioration de la prise en charge (au moins 80 % des personnes contaminées devraient être sous traitement en 2002, traitement remboursé à 100% par la sécurité sociale) et la recherche et la surveillance épidémiologique. Des pôles de référence ont été constitués. Les hôpitaux sont chargés de développer des réseaux d’information, de recherche et de surveillance épidémiologique. Deux livrets ont été publiés par le Ministère de l’Emploi et de la Solidarité et diffusés par le CFES: « l’hépatite C, questions et réponses et « L’hépatite C. Clinique, prise en charge et conseils aux patients (à l’usage des professionnels de santé) ». Le défi à relever est celui de l’information de l’ensemble de la population afin d’améliorer le dépistage, le traitement et la prévention.

      

      

       Ces deux chapitres nous ont permis de préciser les concepts opérants dans le champ de l’éducation Santé environnement que le professeur du secondaire chargé de l’éducation Santé Environnement doit maîtriser pour accomplir sa mission éducative avec efficacité. Les deux thèmes présentés, celui de la qualité de l’eau d’alimentation et celui des maladies infectieuses illustrent le nécessaire travail de recherche et d’analyse que doit mener ce professeur afin de dresser l’état des connaissances autant scientifiques et techniques que d’usage social, de repérer les enjeux et les débats et de cerner les incertitudes de manière à être à même d’élaborer son message éducatif. L. Simonneaux, Professeur des Universités à l’Ecole Nationale de formation agronomique de Toulouse-Auzeville, (Astolfi J.P., 2003, p. 181-182) qualifie ces savoirs de « chauds » car suscitant des « questions socialement « vives » » et qui de plus « font intervenir des aspects économiques, politiques, environnementaux, culturels et éthiques. » Il n’existe pas de consensus de la communauté scientifique sur ces questions qui au contraire suscitent de nombreuses controverses. Le message éducatif doit répondre au programme de Vie Sociale et Professionnelle et aux orientations ministérielles. Le premier chapitre nous avait permis de cerner les finalités du champ éducatif Santé Environnement ainsi que celles de la V.S.P. Le professeur du secondaire chargé de l’éducation Santé Environnement devra s’approprier ces finalités mais aussi, mettre en évidence les stratégies éducatives spécifiques qu’il devra maîtriser et mettre en oeuvre afin de s’engager pleinement dans l’acte éducatif. Ainsi, la V.S.P a pour finalités :

       _ d’amener l’élève à mobiliser des connaissances, scientifiques, technologiques et juridiques afin de conceptualiser ces notions pour leur conférer un caractère opératoire dans le cadre d’une méthodologie de résolution de problème,

       _ de participer au développement de l’esprit critique,

       _ d’aider à développer l’adaptation et la responsabilité,

       _ de permettre d’accéder à l’autonomie,

       _ de contribuer à l’éducation à la citoyenneté dans les domaines de la santé, de l’environnement, de la consommation et de la vie professionnelle.

      Pour atteindre ces finalités, différentes stratégies éducatives seront mobilisées :

       _ l’étude de documents, l’utilisation de logiciels

       _ des observations, des identifications de structures,

       _ l’élaboration de documents,

       _ l’utilisation de techniques de communication.

      Le professeur privilégiera outre une méthodologie de résolution de problème, une pédagogie active avec notamment une mise en place de projet. Ainsi, les différentes dimensions cognitive, affective et éthique de l’acte éducatif en santé Environnement seront prises en compte. Ces deux chapitres nous ont fourni la trame du questionnaire présenté à un panel de professeurs de Biotechnologie Santé Environnement chargés en lycée professionnel de l’éducation Santé Environnement. Ce questionnaire nous permettra de mettre en évidence le degré d’engagement de ces professeurs dans l’acte éducatif et de corréler à ce degré d’engagement, celui de l’implication dans la vie sociale et professionnelle. Engagement est pris ici dans le sens d’ « être en accord ». Un professeur qui s’engage est en accord avec les missions qui lui sont confiées. Il montre un intérêt réel pour les sujets enseignés et les finalités éducatives de sa discipline mais aussi pour les sujets à qui il enseigne et pour qui il met en oeuvre les démarches préconisées. Il intègre en outre la nécessité de mettre à jour continuellement ses connaissances. S’engager dans l’acte éducatif fait du professeur un éducateur, c’est à dire un homme qui permet à un enfant ou un adolescent de se propulser dans son projet ou dans la vie qu’il s’est choisie. Cet homme possède trois qualités : la compétence, la crédibilité et les convictions. Le professeur qui s’engage dans l’acte éducatif est passionné et cherche à partager sa passion, mais surtout il défend une idée de société qui est sienne. Il promeut les valeurs qu’il porte en lui-même et incarne. Il cherche ainsi à développer des attitudes et des comportements en adéquation avec ses valeurs et ses idéaux. Nous pouvons donc émettre l’hypothèse que le degré d’engagement d’un professeur dans l’acte éducatif en Santé Environnement est corrélé avec son implication personnelle dans la vie sociale et professionnelle.

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      

      


Chapitre 3
Mise en évidence des corrélations entre l’implication personnelle de l’enseignant dans sa vie sociale et professionnelle et son engagement dans l’acte éducatif en Santé Environnement

      

      

      

      

      

      

      

      

      

      

      

       Notre hypothèse de recherche est que l’implication personnelle de l’enseignant dans sa vie sociale et professionnelle est un facteur explicatif d’engagement éducatif et qu’il est nécessaire de le prendre en compte dans sa formation professionnelle. L’implication éthique, l’implication sociale, l’implication cognitive, l’implication politique et l’implication émotionnelle constituent des ressources dont la mobilisation permet d’augmenter le degré d’engagement dans le respect des instructions officielles. Dans ce cadre, le questionnaire (annexe 1) construit à l’aide des deux chapitres précédents nous a permis de mesurer le degré d’engagement dans l’acte éducatif Santé Environnement à savoir le degré d’engagement dans les missions que doit assurer un Professeur de Lycée Professionnel Biotechnologie Santé Environnement assurant l’enseignement de Vie Sociale et Professionnelle c’est à dire chargé de l’éducation Santé Environnement auprès des élèves de CAP et de BEP. Ces missions élaborées à partir des instructions officielles sont :

       _ maîtriser les contenus ;

       _ privilégier une approche globale ;

       _ formuler des objectifs conformes aux finalité de la Vie Sociale et Professionnelle ;

       _ mettre en adéquation situations d’apprentissage et objectifs fixés ;

       _ être informé des différents supports de ressources documentaires et des modalités pour y accéder ;

       _ s’impliquer dans les activités extra disciplinaires au sein du lycée professionnel.

      

      Dans un premier temps le questionnaire a été proposé lors de l’année scolaire 2001-2002, à une centaine de professeurs de lycée professionnel, de Biotechnologies Santé Environnement (dont 12 professeurs stagiaires en IUFM); 59 ont pu être exploités. L’analyse des réponses permettra d’attribuer à chaque professeur un score de respect des instructions officielles, c’est à dire un nombre de points par comparaison des réponses obtenues avec les instructions officielles (circulaires, programmes, document d’accompagnement). L’analyse permettra également de dresser pour chacune des missions éducatives un état des lieux de l’engagement des professeurs interrogés. Chaque professeur interrogé se verra attribuer un score d’implication dans la vie sociale et professionnelle. Le panel des 59 professeurs interrogés sera ainsi présenté à travers différentes variables indépendantes : la formation professionnelle initiale, l’implication sociale, politique, éthique, émotionnelle, cognitive et déontologique. Nous tenterons ensuite de corréler les différentes variables dépendantes et indépendantes/concurrentes afin de mettre en évidence les ressources mobilisées par les professeurs qui s’engagent dans l’acte éducatif en santé environnement. Compte-tenu des résultats obtenus et de notre objectif de réflexion sur la formation des professeurs du secondaire chargés de l’éducation Santé Environnement, nous avons soumis le même questionnaire aux 14 professeurs stagiaires Biotechnologies santé Environnement affectés à l’IUFM Nord Pas de Calais en 2002-03 afin d’analyser les corrélations entre les différentes variables pour ce public spécifique et de mettre en évidence les apports et les limites de la formation professionnelle initiale en IUFM. Pour cela, nous regrouperons les 12 professeurs stagiaires du panel 1 (2000-2001) avec les 14 professeurs stagiaires du panel 2 (2002-2003). Ainsi dans un quatrième chapitre, nous mènerons une réflexion sur l’intégration des dimensions cognitive, politique, sociale et émotionnelle dans la construction d’une identité professionnelle des professeurs du second degré chargés de l’éducation Santé Environnement et nous nous interrogerons sur les compétences mobilisées par le formateur.

      

      

      

      


1. Résultats obtenus auprès de 59 professeurs interrogés en 2001-2002

      

       59 professeurs de Biotechnologie Santé Environnement enseignant la Vie Sociale et Professionnelle en L.P., ont répondu à l’ensemble du questionnaire en y consacrant le temps nécessaire. Nombreux sont ceux qui ont manifesté une crainte d’être évalués par ce biais et de montrer un « manque manifeste de connaissances », d’autres m’ont déclaré que certaines questions leur semblaient être trop personnelles.

      

      Les réponses obtenues au questionnaire sont présentés en annexe 2 (en italique)

      

      


1.1. Présentation du panel

      

      Les professeurs interrogés sont toutes des femmes (q1) et à 66% titulaires (q2), 20% sont stagiaires. L’ancienneté dans l’enseignement en Lycée Professionnel (q3) est très variable avec une moyenne de 8, 21 ans.

       Graphique 3.1 : répartition des professeurs interrogés selon leur ancienneté en lycée professionnel (en abscisse : professeurs interrogés, en ordonnée : score d’ancienneté)

      légende: aucune donnée : score 0 de 5 à 10 ans : score 3

       stagiaire : score 1 de 10 à 15 ans : score 4

       de 1 à 5 ans : score 2 plus de 15 ans : score 5

      

      

      16 professeurs parmi les 59 ont une ancienneté dans l’enseignement supérieure à 15 ans (score 5) et 12 effectuent leur première année au cours de l’année 2001-2002.

      

      


1.2. Variables dépendantes : mise en oeuvre de stratégies éducatives

      

       La mesure du degré d’engagement dans la mise en oeuvre de stratégies éducatives respectant les instructions officielles (circulaires ministérielles fixant la mission du professeur du secondaire et celles portant sur l’éducation Santé Environnement, programme de Vie Sociale et Professionnelle, document d’accompagnement de ce programme) comporte différents items :

       _ la maîtrise des savoirs nécessaires à la compréhension et à la résolution des problèmes étudiés,

       _ l’approche globale,

       _ la formulation d’objectifs conformes aux finalités de la V.S.P.,

       _ la mise en adéquation entre situations d’apprentissage et objectifs fixés,

       _ la diversification des activités pédagogiques proposées,

       _ se tenir informé des différents supports de ressources documentaires et des modalités pour y accéder,

       _ l’implication dans les activités extra disciplinaires, au sein du lycée professionnel.

      A chacun d’entre eux sera attribué un nombre de points ou score par comparaison des réponses au questionnaire avec les instructions officielles (circulaires, programmes, document d’accompagnement).

      

      

      

       Item 1. Maîtriser les contenus nécessaires à la compréhension et à la résolution des problèmes étudiés,

      

      Maîtriser les concepts opérants

      

       Le concept qui peut apparaître comme fondamental en éducation Santé Environnement est celui du risque. 61 % des professeurs interrogés le définissent (q22) comme la manifestation probable d’un danger et 69 % le discernent du danger (q21). La perception du risque est une donnée subjective, parmi les différentes situations présentées (q23) 14 % des professeurs (7 % « dans tous les cas » et 7 autres « dans la majorité des cas ») ont estimé que toutes pouvaient être perçues comme dangereuses selon les circonstances.

      

      La gravité de certains risques est méconnue, c’est le cas de la fluorose liée à une consommation régulière d’eau chargée en fluor comme Saint-Yorre ou Vichy Célestin. Seuls 30 % des professeurs interrogés ont admis ce risque (q57). C’est le cas également pour les nitrosamines dont le pouvoir cancérogène semble ne faire aucun doute pour les 2/3 des professeurs interrogés (q45). (Le rapport de la Commission d’Orientation du Plan national santé-environnement du 12.02.2004 souligne que « le développement de l’offre et du niveau de consommation par la population d’eaux fortement minéralisées, autrefois réservées aux curistes atteints de pathologies et sous surveillance médicale ne fait pas l’objet d’une attention suffisante, en particulier chez les enfants » p64)

      

      De même pour 58 % des professeurs interrogés (q71) la transmission de l’agent de la nvMCJ se fait par voie alimentaire, 10 % seulement expriment la notion d’incertitude vis à vis des connaissances actuelles concernant le processus de transmission de la nvMCJ à l’homme.

      

      Concernant les aliments contenant des O.G.M. (q66), 19 % des professeurs interrogés expriment 3 risques potentiels posés par ces aliments (sur 6 suspectés) et 29 % ne donnent pas de réponses. Certains risques sont ainsi pressentis voire admis mais difficilement énoncés.

      

      

      

       Graphique 3.2 : Risques potentiels exprimés par les professeurs interrogés, posés par les aliments contenant des OGM

      (en abscisse : risques potentiels, en ordonnée : nombre de réponses en %)

      

      C’est le risque environnemental qui est majoritairement exprimé (par 25 % des professeurs), suivi du risque génétique (20 %). Ces deux risques étant aussi les plus médiatisés : risque de flux de gènes en direction des plantes sauvages ou d’autre impacts sur les insectes notamment les abeilles et risque lié au transfert de gènes de résistance à un antibiotique transférés aux bactéries intestinales. Le risque économique n’est cité que par 3 % des professeurs alors qu’il est présenté comme primordial par les opposants aux aliments contenant des OGM. René Riesel, un des secrétaires nationaux de la Confédération Paysanne rejetait en bloc les plantes transgéniques argumentant que « Toute innovation profitable aux actionnaires d’un grand groupe industriel n’est pas forcément profitable à l’ensemble des hommes. » (Vincent C., « les citoyens appellent à la prudence face aux plantes transgéniques. Des experts se sont prononcés pour un moratoire sur les OGM lors de la conférence des citoyens organisée à Paris. ». Le Monde. jeudi 20 août 1998.)

      

      Quantifier en terme de nombre de décès, la gravité des risques sanitaires n’est pas chose aisée, même pour des maladies relativement connues. L’estimation chiffrée du nombre de décès par an en France (q65) est exacte : pour 7 % des professeurs interrogés pour les listérioses, pour 3,5 % des professeurs interrogés pour les maladies liées à l’alcool. (Respectivement 66 % et

      61 % des professeurs interrogés n’ont fourni aucun chiffre.) Concernant l’estimation du nombre de victimes à venir du nvMCJ (q71); seuls 1/3 des professeurs interrogés reconnaissent explicitement qu’à l’heure actuelle, nul ne sait.

      

      

      Maîtriser les connaissances scientifiques et techniques

      

       Concernant les hépatites B et C :

      

       La polémique autour des risques de développement de Sclérose En Plaques liés à la vaccination contre l’hépatite B contribue à la désinformation. En effet pour 39 % des professeurs interrogés un consensus est établi sur le lien de causalité entre vaccination contre l’hépatite B et le développement d’une S.E.P. (q38.3). Pourtant 44 % des professeurs interrogés affirment le contraire et que (pour 39 %) l’O.M.S. recommande toujours la vaccination de masse des collégiens même si en France elle a été suspendue par B. Kouchner. 17 % des professeurs interrogés savent que seule la vaccination de masse est suspendue et que les 11-13 ans (q38.1) ont la possibilité auprès de leur médecin de famille de se faire vacciner.

      29 % des professeurs estiment à sa juste valeur (soit 10 %), le risque de chronicité d’une hépatite B (q38.4), 7 % le surestiment et 7 % le sous-estiment. 17 % des professeurs interrogés citent 3 groupes à risques sur 5 ( q38.5).

      

       Graphique 3.3 : Groupes à risque concernant l’hépatite B identifiés par les professeurs interrogés

      ( en abscisse : groupes à risque pour l’hépatite B, en ordonnée : nombre de professeurs en %)

      

      

      Le « personnel de santé » et « les toxicomanes sont identifiés comme catégories à risques par 30 % des professeurs. Par contre les « voyageurs en zone endémique » ne sont pas identifiés comme telles alors que bon nombre d’élèves de L.P. passent leurs vacances en Afrique sub-saharienne. De même très peu (10 %) justifient la recommandation de vaccination des nourrissons contre l’hépatite B par un risque élevé de passage à la chronicité dans cette population. (37 % n’apportent aucune justification, (q38.6).

      

      

       Graphique 3.4 : Priorités du plan national contre l’hépatite c identifiées par les professeurs interrogés.

      (en abscisse : priorités du plan, en ordonnée: nombre de professeurs en %)

      

      Concernant l’hépatite C, le questionnaire confirme le bien fondé de la campagne d’information du C.F.E.S. menée en 2001. Seuls 10 % des professeurs interrogés citent 2 priorités (sur les 4) du plan national de lutte contre l’hépatite C lancé en 1999 par B. Kouchner, à savoir de relever le défi de l’information de l’ensemble de la population afin d’améliorer le dépistage et la prise en charge des personnes contaminées mais aussi de réduire les risques de contamination. Ceux-ci sont mal connus. Seuls 20 % des professeurs interrogés citent (q39.2) au moins une situation à risques concernant la contamination par le virus de l’hépatite C. C’est surtout l’usage de drogues injectables qui est cité. Or le matériel utilisé pour le tatouage et le piercing (3 % l’ont cité) non ou mal stérilisé ainsi que les échanges de matériel de toilette constituent un risque non négligeable et les adolescents, une population à risques.

      

      

      

      

      

       Concernant l’eau potable :

      

       Lorsqu’on interroge sur l’eau potable et plus particulièrement sur les risques liés à sa consommation directe ou après traitement, ¼ des professeurs identifient (q44) correctement les personnes à risques vis à vis des nitrates et de la méthémoglobinémie à savoir les fœtus et nourrissons. Sur ce sujet également une sur information médiatique entraîne la désinformation du public.

      

      L’inconvénient sur le plan sanitaire d’un excès de chlore libre résiduel dans l’eau d’adduction est lui aussi méconnu car seuls 5 % des professeurs interrogés citent (q53) la propriété mutagène des sous-produits chlorés développés dans une eau dont le taux de chlore libre résiduel est > 0,1 mg / l. (« La morbidité attribuable aux différentes utilisations et qualités des eaux de consommation humaine et des eaux minérales reste à évaluer, surtout vis-à-vis des risques sanitaires à moyen et à long terme. Cela concerne aussi bien les éléments minéraux (fluor, arsenic) que des mélanges de composés organiques (sous-produits de la désinfection). » Rapport de la Commission d’orientation du Plan national santé-environnement, 12.02.2004)

      

      L’inconvénient majeur lié à la consommation d’une eau adoucie (très chargée en sels) (q55) est sous- estimé et 44 % des professeurs estiment que l’on peut consommer de l’eau adoucie sans précaution particulière. 14 % des professeurs déclarent que la consommation d’eau adoucie est déconseillée aux personnes suivant un régime sans sel. Les autres risques liés à une consommation d’eau adoucie (à savoir la contamination possible de l’adoucisseur et la non conformité du sel régénérant aux règles d’hygiène des produits alimentaires) ne sont pas cités.

      

      La distinction entre les différentes eaux de consommation : minérales, de source ou embouteillées n’est pas nette (q58, seuls ¼ en donnent une définition exacte) et le champ d’application de la norme de potabilité n’est pas clairement identifié (q59, 30 % des professeurs interrogés savent qu’une eau minérale n’est pas tenue d’être conforme à la norme de potabilité et 58 % déclarent le contraire).

      

      Lorsqu’on interroge sur une maladie comme le saturnisme infantile, il semble difficile de citer les différentes sources de plomb ayant contribuées à l’apparition d’une plombémie. Même si nous habitons une région à risque concernant le saturnisme infantile, si 66 % accusent le plomb hydrique, seuls 14 % des professeurs identifient 3 sources (q49).

       Concernant les risques alimentaires :

      

       68 % des professeurs interrogés ont cité (q67) au moins 2 avantages présentés pour les plantes génétiquement modifiées.

      

      

      production de médicaments 5 %

      meilleur rendement 32 %

      résistance aux maladies, parasites... 54 %

      meilleure conservation 5 %

      peuvent être cultivées dans des endroits où elles n ’auraient pas pu l’être 8 %

      économie d’eau 2 %

      résistance aux pesticides 2 %

      production toute l’année 2 %

      contrôle de la reproduction 2 %

      consommation moindre de pesticide 19 %

      standardisation 2 %

      amélioration de la qualité 15 %

      diminution des prix ? 2 %

      « aucun » 2 %

      

      Tableau 3.5 : Avantages présenté par les plantes génétiquement modifiés exprimés par les professeurs interrogés (en %).

      

      

      C’est la résistance aux maladies et parasites qui est majoritairement présentée comme avantage apporté par les plantes génétiquement modifiées (par 54 % des professeurs), suivie de la possibilité d’améliorer le rendement (par 32 % des professeurs) et d’un argument écologiste : « la consommation moindre de pesticide ». Là encore, on retrouve les arguments présentés par les défenseurs des OGM : «  On peut par modification du capital génétique, créer de nouvelles variétés végétales, éventuellement de nouvelles souches animales, plus performantes car mieux adaptées aux conditions environnementales défavorables (salinité, sécheresse, ravageurs et pathologies diverses) ou dont les produits sont plus conformes aux besoins de diverses catégories de consommateurs. La transgénèse végétale permet d’accroître la productivité des espèces végétales en améliorant leurs performances agronomiques, de diminuer la pollution environnementale grâce à la suppression ou l’allégement des traitements par les substances chimiques (pesticides, herbicides, fongicides...) ... » (Rérat, 2001)

      

      

      Le nom de l’agent de la nvMCJ est majoritairement connu (q71.1, 63 %). Un seul professeur précise néanmoins que cet agent n’est pas identifié comme tel avec certitude et consensus.

      « Qu’est-ce qu’un prion ? La question n’est pas neuve. Forgé par Stanley Prusiner en 1982, le terme recouvre toujours, vingt ans après, des réalités différentes selon la personne qui l’emploie.... Ce flou sémantique n’est pas anodin. Il reflète l’ensemble des incertitudes qui continuent de planer sur la façon dont sont transmises les « maladies à prions ». Certains biologistes continuent d’ailleurs à douter de la validité de l’hypothèse « prion ». (La Recherche,, octobre 2003)

      D’autre part, 1/3 des professeurs interrogés donnent une estimation exacte du nombre de victimes causées par le nvMCJ à savoir 80 à 100 dans le monde dont 3 en France (q71.3).

      

      

      

      Maîtrise des connaissances d’usage social

      

       Lorsqu’ils traitent de l’eau potable en classe, la très grande majorité des professeurs interrogés (81 %) abordent à la fois l’eau d’adduction et les eaux embouteillées (q41).

      

      Le prix du mètre cube d’eau potable (q46) est correctement chiffré pour la moitié des professeurs interrogés mais seuls ¼ d’entre eux chiffrent la différence de prix entre une eau embouteillée et l’eau du robinet (q60).

      

      L’augmentation constante du prix de l’eau du réseau d’adduction apparaît comme une fatalité justifiée (q47) à la fois par la nécessité de traiter et de contrôler l’eau ressource de plus en plus polluée (46 %) et par la nécessité d’assainir les eaux usées avant qu’elles ne rejoignent le milieu naturel mais aussi par l’entretien et la restauration du réseau (24 %), par l’augmentation des taxes (8.5 %) et enfin parce que la qualité de l’eau distribuée est meilleure (3,5 %). Aucun professeur ne justifie cette augmentation par la délégation pour certaines communes du service de l’eau à une société privée ni par des négligences de services de gestion directe (affaires politico-financières).

      

      Si tout un chacun dans notre région calcaire se plaint des désagréments causés par une eau très dure, seuls 3 % des professeurs interrogés en citent au moins 3 (sur 5 identifiés, q54).

      

      

      entartrage des tuyauteries et résistances des machines à laver 66 %

      eau désagréable pour l’épiderme 12 %

      limitation du pouvoir moussant 25 %

      dépôts sur les ustensiles, le linge... 34 %

      traces sur les verres... 8 %

      goût désagréable 5 %

      couleur 0 %

      « troubles rénaux ? » 2 %

      « risque de santé » 2 %

      « maladies Cardio vasculaires » 2 %

      

      Tableau 3.6 : désagréments d’une eau trop dure exprimés par les professeurs interrogés.

      

      

      Le désagrément le plus cité (par 66 % des professeurs) est l’entartrage des tuyauteries et résistances des machines à laver suivi par les dépôts sur les ustensiles et le linge rêche (par

      34 % des professeurs) ainsi que la limitation du pouvoir moussant (par 25 % des professeurs).

      

      Concernant les avantages apportés par un adoucisseur d’eau (q56), 42 % des professeurs interrogés reconnaissent qu’il ne permet pas de réaliser de substantielles économies, contrairement à l’argumentation avancée par de nombreuses publicités et par 41 % des professeurs interrogés.

      

      A l’usager qui s’inquiète de l’éventuelle teneur en plomb de son eau potable (q51), 19 % des professeurs interrogés proposeront une demande de diagnostic au syndic ou au propriétaire et 29 % d’effectuer un test de mesure. 20 % lui indiquera que s’il est propriétaire de son habitation, alors il sera le principal bailleur de fond du remplacement des canalisations en plomb (q50). Mais 25 % des professeurs estiment que la société de distribution ou la mairie ont la responsabilité de la qualité de l’eau dans le domaine privé. Il est à noter que 2 professeurs signalent (q47) que l’une des justifications à l’augmentation du prix de l’eau du réseau d’adduction est « principalement le changement des canalisations au plomb en cours de renouvellement ». Aucun ne fait référence aux associations de consommateurs, véritables relais d’information, permettant à ses membres de bénéficier éventuellement d’une aide juridique.

      

      Enfin, si 52 % des professeurs interrogés abordent le dépistage du V.I.H. avec les élèves (q31), le contenu informatif (q32) est très rarement (sauf pour 4,5 % d’entre eux) en adéquation avec les orientations des organismes de santé publique, à savoir : anonymat, gratuité, permettre en cas de doute ou après un risque identifié de commencer un traitement afin de réduire le risque de contamination et enfin permettre de faire le point sur son éventuelle séropositivité et donc sur la conduite à tenir par exemple au sein d’un couple en terme de prévention.

      

      

      

      prendre connaissance de son statut / séropositivité 12 %

      avoir accès à un conseil personnalisé de prévention 2 %

      effectuer un diagnostic en vue d’un traitement précoce 8 %

      anonymat 30 %

      gratuité 27 %

      l’ensemble des réponses 4.5 %

      

      Tableau 3.7 : contenu informatif délivré sur le dépistage du VIH présenté par les professeurs interrogés.

      

      

      Parmi ces informations, l’anonymat et la gratuité sont cités par respectivement 30 et 27 % des professeurs interrogés mais l’accès à un conseil personnalisé de prévention n’a été avancé que par 2 % des professeurs.

      

      

      

       Item 2. Privilégier une approche globale

      

      Traiter des sujets d’actualité au sein d’un domaine

      

       Dans le domaine de la consommation de la Vie Sociale et Professionnelle, si 29 % des professeurs interrogés choisissent le problème de l’E.S.B. (q70) pour aborder la qualité des produits et les notions d’étiquetage, de certification et d’études comparatives, ils ne sont que 36 % à étudier le problème que pose l’étiquetage des aliments contenant des O.G.M. (q68).

      

      61 % des professeurs interrogés abordent le problème des risques liés au changement de régime alimentaire (q72, augmentation du grignotage, transformation de la composition des repas, progression de la consommation de produits sucrés...) dans les sociétés industrielles développées. L’augmentation de jeunes adultes obèses et du nombre de personnes jeunes souffrant de diabète non insulino dépendant est actuellement pointé par l’O.M.S avec incitation à l’éducation nutritionnelle et fait l’objet de nombreux articles de la presse spécialisée ou de vulgarisation. Néanmoins, 15 % d’entre eux ne le traitent pas avec leurs élèves, même si l’obésité est un problème réel de santé publique soit par les risques qu’il représente pour la santé (morbidité - mortalité), soit par les risques sociaux de stigmatisation qui lui sont associés. « En France , l’obésité concernerait 7 à 10 % des adultes et 10 à 12,5 % des enfants de 5 à 12 ans et selon le ministère de la santé sa prévalence serait en nette augmentation depuis quelques années. Selon la conférence sur l’obésité qui s’est tenue à Copenhague en septembre 2002, au cours des dix prochaines années, l’obésité pourrait atteindre dans l’Union européenne le même niveau de prévalence que celui observé aux Etats-Unis où l’on estime qu’un tiers de la population est obèse et un autre tiers atteint de surcharge pondérale. » (Ologoudou M., 2004, p39) Il semble donc indispensable de prendre conscience sans plus tarder de l’importance de bien manger pour bien se porter.

      

      

      

      

      

      Aborder une problématique dans toutes ses dimensions

      

       Les deux exemples de problématiques proposés dans le questionnaire sont ceux du SIDA et de l’Hépatite B, deux I.S.T.. 12 % des professeurs interrogés disent traiter isolément le problème des M.S.T. (q24), c’est à dire ne pas l’inclure dans une thématique globale ayant trait à la sexualité des adolescents. Même si 75 % des professeurs interrogés disent privilégier une approche globale de la sexualité en traitant le thème du SIDA, de nombreux sujets ne sont pas abordés.

      

       Graphique 3.8 : sujets non abordés lors des séances « M.S.T., sida ».

      (en abscisse : sujets non abordés, en ordonnée : nombre de professeurs sur 59)

      

      La masturbation vient en tête des sujets non abordés suivent les violences sexuelles (l’abus sexuel, la prostitution et le viol). Aborder la masturbation est « inutile en cours », « trop intime », du ressort de la vie privée ou encore « difficile à introduire sans choquer » car « trop personnel et délicat ». D’autre part, ces « sujets peuvent choquer ». Traiter des violences sexuelles entraîne « la crainte de soulever des réactions, des problèmes, le vécu des élèves ». « Aucune raison de les évoquer » puisqu’ils n’ont « jamais fait partie de la demande des élèves ». D’ailleurs, « il n’y a pas de question ». D’autre évoquent le « manque de temps », « le programme trop lourd » mais aussi le « manque d’information » qui fait que l’on ne se sente « pas armée pour », « pas à l’aise ». Pourtant certains professeurs (2 %) suscitent les questions et témoignages des élèves afin de faire des réponses ciblées (q25) (surtout si des problèmes de violence se sont posés au sein du lycée ou de la cité), mettent en oeuvre des projets (7 %, q20) de manière à approfondir certaines dimensions, ou encore passent le relais à des associations ou à l’infirmière (70 %, q26). Les dimensions affectives et morales des rapports sexuels sont de manière générale prises en compte de même que les « spécificités » de l’adolescence (première fois, choix d’une contraception, multiplication des expériences...)

      

       Graphique 3.9 : Variables non abordées lorsque les professeurs interrogés parlent de préservatif à leurs élèves.

      (en abscisse : variables non abordées, en ordonnée : nombre de professeurs sur 59)

      

      

      88 % des professeurs interrogés parlent du préservatif à leurs élèves (q27). Mais toutes les dimensions d’une problématique ayant trait au préservatif (q28) ne sont pas envisagées à savoir son achat (Où? Lequel choisir? Comment le demander?... : questions non abordées par 13 professeurs sur 59) , sa fiabilité (non abordée par10 professeurs sur 59), son coût (non abordé par 16 professeurs sur 59), sa pose (Comment ? Quand ? Qui / partenaire ?... : questions non abordées par 14 professeurs sur 59), les inconvénients liés à son utilisation (non abordés par 16 professeurs sur 59).

      

      Autre moyen de prévention : le dépistage précoce permettant de commencer très tôt une trithérapie et pouvant réduire ainsi, le risque d’infection (q31). 88 % des professeurs interrogés déclarent aborder le dépistage en classe et 85 % donnent l’adresse des centres de dépistage locaux. Pourtant comme nous l’avons vu précédemment 4,5 % des professeurs seulement transmettent un message actualisé sur ce sujet, mettant l’accent sur la nécessité de consulter dans l’urgence, de manière anonyme et gratuite au moindre doute d’une possible contamination.

      

      Concernant les circonstances dans lesquelles il existe un risque de transmission du V.I.H. (q29), 1/3 des professeurs interrogés ne sont pas exhaustifs. Notamment 17 % ne l’associent pas à la toxicomanie. 88 % des professeurs interrogés abordent l’hépatite B avec les I.S.T. et 99 % d’entre eux parlent alors de la vaccination contre l’hépatite B.

      

      

      

       Item 3. Formuler des objectifs conformes aux finalités de la V.S.P.

      

       Formuler des objectifs conformes aux finalités de la V.S.P., c’est développer les compétences inscrites dans le programme de V.S.P. :

      

       _ Appréhender et analyser une situation de la vie quotidienne ;

       _ Effectuer des choix raisonnés ;

       _ Accéder à l’autonomie nécessaire à la vie quotidienne ;

       _ Mener un projet, une action de gestion, de protection, de prévention ;

       _ Prendre conscience de sa responsabilité (vis à vis de soi-même, d’autrui, de son environnement) ;

       _ Prendre conscience de l’impact de son comportement.

      

      L’ensemble de ces compétences peut être développé en traitant une problématique concernant l’eau potable ou l’éducation nutritionnelle. Le score total est de 8 (q61,68,70,72).

      

       Graphique 3.10 : Scores obtenus par les professeurs interrogés sur la conformité des objectifs formulés avec les finalités de la discipline Vie Sociale et professionnelle

      (en abscisse : score obtenu, en ordonnée : nombre de professeurs ayant obtenu ce score)

      

      

      Le score maximal atteint par 3 % des professeurs interrogés est de 5. 27 % ont un score nul car leurs objectifs sont formulés uniquement en terme de contenu à acquérir (exemple : « connaître l’origine de l’eau, sa composition... ») ou à faire acquérir (« montrer les moyens de la rendre potable », « faire comprendre pourquoi l’eau coûte si cher »...) et non de compétences à développer ou encore parce qu’ils n’ont cité aucun objectif (15 %). « Dans toute discipline, un programme ne se réduit plus, et depuis longtemps, à une liste de contenus exigibles, il inclut aussi des indications de formation à des méthodes et à des modes de raisonnement, des préoccupations plus nettement éducatives. Il s’agit de transmettre des connaissances, mais aussi de former au raisonnement, à l’autonomie, d’éduquer à la responsabilité. Il est important de souligner que ces objectifs n’ont pas varié depuis plus d’une décennie : s’en tenir à la simple transmission des savoirs, c’est donc pratiquer un enseignement qui n’est plus de mise depuis des années. Les documents d’accompagnement des programmes éclairent de façon précise sur leurs intentions. » (Mamecier A., I.G.E.N., in Repères : L’éducation à la sexualité au collège et au lycée, février 2004)

      

      Concernant l’eau potable (q61), ¼ des professeurs souhaitent que leurs élèves participent à la gestion des ressources et à la protection de l’environnement. Ainsi, 19 % d’entre eux ont pour objectif une prise de conscience que l’eau est un bien commun, vital et qu’il est indispensable de participer par des actions responsables à sa gestion. 9 % des professeurs expriment leur désir de permettre aux élèves « d’identifier les risques d’une eau non potable », d’être capable de mettre en évidence l’absence de micro-organismes pathogènes dans l’eau potable et de « faire prendre conscience qu’une eau qui a mauvais goût peut être potable mais qu’une eau parfois limpide peut entraîner un danger ». Peut-être ont-ils des élèves qui effectuent des séjours dans leur famille en Afrique ou en Asie ? 3 % des professeurs ont comme objectif d’amener leurs élèves à « réduire la quantité d’eau achetée en bouteille ».

      

      Concernant les risques alimentaires (q68, 70, 72), 10 % des professeurs souhaitent que leurs élèves soient capables de justifier l’achat ou le non achat d’un produit contenant des OGM,

      14 % qu’ils puissent effectuer des choix raisonnés lors de l’achat de viande de bœuf et 17 % qu’ils soient capables d’équilibrer leur alimentation. Pour ce faire, 13 % cherchent à « faire comprendre ce qu’est un aliment contenant des OGM », à « sensibiliser à ce problème d’actualité » et « aux techniques récentes de productivité ». 19 % expriment la volonté « d’informer et de sensibiliser à la qualité » mais surtout pour 27 % celle de « dédramatiser » « les mauvaises rumeurs que font circuler parfois les médias », « rassurer », « éviter les idées reçues ». Enfin, 27 % des professeurs déclarent rechercher une prise de conscience par les élèves des risques liés au changement de régime alimentaire ainsi que le « souci d’une alimentation favorable à la santé » (pour 14 %) et la « volonté de modifier son comportement » (pour 8 % ). Aucun ne déclare mettre en valeur le plaisir de la table, l’aspect convivial et social du moment du repas. Les aspects hédoniques de l’alimentation semblent être négligés. D’autre part, aucun ne déclare rechercher avec les élèves les moyens de minimiser les coûts de l’alimentation tout en recherchant un plus grand bénéfice plaisir-santé. En effet, « le coût minimal de la ration journalière respectant à la fois les besoins nutritionnels et les habitudes alimentaires actuelles se situerait à 30 F par jour et par adulte, soit très nettement au-dessus des dépenses quotidiennes actuelles des populations défavorisées (15 à 20 F par jour et par personne selon la revue Alimentation et Précarité de juillet 2000, 22 F par jour et par personne selon l’enquête Budget des familles INSEE 1995 pour les foyers de revenus inférieurs à 42000 F par personne et par an) »... » Ceci suggère que les choix alimentaires des personnes pauvres sont fortement déterminés par leurs contraintes budgétaires. » (Ologoudou M., 2004, p50)

      « En matière d’indicateurs de santé, les études signalent la plus forte prévalence de l’obésité, notamment chez les enfants et les femmes adultes de faible niveau socio-économique. On peut faire l’hypothèse d’un lien entre cet indicateur du statut nutritionnel et

      

      les déséquilibres des apports alimentaires. L’obésité est d’autant plus préoccupante chez les enfants qu’elle peut avoir des effets sur l’état de santé à l’âge adulte. De façon générale, un rapport récent de l’INSERM sur les inégalités sociales de santé met en évidence la surmorbidité ou la surmortalité des populations modestes ou défavorisées dans de nombreux domaines pouvant avoir un lien avec l’alimentation : maladies cardiovasculaires, cancers. » (Ologoudou M., 2004, p52)   Or les élèves des lycées professionnels appartiennent pour une grande majorité à ces populations modestes ou défavorisées et donc représentent une population à risque dans ce domaine.

      

      Dans ces deux exemples la volonté d’amener l’élève consommateur et citoyen à revendiquer un droit de regard et de discussion avec les acteurs concernés ne transparaît pas. Ainsi, la participation du citoyen à la gestion de sa santé et de son environnement semble être occultée.

      

      

      

       Item 4. Mettre en adéquation situations d’apprentissage et objectifs fixés

      

       Les objectifs retenus sont ceux répondant aux finalités de l’éducation Santé Environnement, notamment développer une attitude de responsabilité, de respect et de prévention, un esprit critique et l’implication citoyenne. Le désir de développer ces valeurs institutionnelles dépend de l’attachement du professeur à celles-ci.(q11)

      

       Graphique 3.11 : Attachement des professeurs interrogés aux valeurs institutionnelles.

      (en abscisse : valeurs institutionnelles, en ordonnée : nombre de professeurs en %)

      

      

      Tolérance, respect, citoyenneté, autonomie et responsabilité sont dans l’ordre, les valeurs plébiscitées par la moitié des professeurs interrogés. La solidarité n’a été inscrite que par 30 % des professeurs, la liberté par 12 %, la créativité par 5 %, léquité par 2 % et aucun des professeurs n’a inscrit la laïcité ni l’adaptation. Or la laïcité reflète pourtant l’espace de neutralité nécessaire à l’argumentation, au sens d’examen rationnel auquel sont par principe dans le cadre scolaire soumises les différentes convictions. Le respect dû aux convictions d’autrui s’arrêtant là où seraient transgressées les valeurs communes : tolérance, liberté, égalité, respect de la dignité humaine... Ces valeurs communes étant les valeurs humanistes de la laïcité.

      

      

      

      

      

      

      Développer une attitude de responsabilité et de respect

      

       La responsabilité et le respect envers soi et envers autrui sont des attitudes que le professeur peut chercher à développer lorsqu’il aborde le sujet du SIDA et des M.S.T. (q30). Le professeur « s’attachera à donner aux élèves le sens de leur responsabilité, à respecter et à tirer parti de leur diversité... » (c. 97-123 du 23.05.1997) De même, c’est une attitude de responsabilité qui est recherchée (par 8 % des professeurs) lorsqu’ils abordent le problème de la vaccination contre l’hépatite B en permettant à l’élève de se responsabiliser par rapport à cet acte de prévention pour lui-même et pour son entourage. Dans ce cas la vaccination peut aussi être une action de solidarité.

      29 % des professeurs interrogés ont un score ≥ 1 (sur un total de 2) concernant le développement d’une attitude de responsabilité en matière de santé et 19 % d’entre eux mettent en oeuvre des situations pédagogiques permettant de développer une attitude de respect mais aussi de tolérance lorsqu’ils abordent le thème du SIDA et des M.S.T..

      

      

      

      Développer un comportement de prévention

      

       Les professeurs interrogés mettant en oeuvre des situations d’apprentissage permettant de développer un comportement de prévention sont plus nombreux. Il est possible de le mesurer par les réponses apportées en terme de prévention des M.S.T. et du SIDA (q30), de gestes simples proposés afin de consommer une eau du robinet de qualité (q52), de propositions à élaborer pour réduire la facture d’eau (q48) ou encore afin de prévenir le risque de surpoids (q72).

      

       Graphique 3.12 : Scores obtenus par les professeurs interrogés concernant la formulation des objectifs pédagogiques en terme de prévention.

      Le score maximal est de 4 et il est atteint par 40 % des professeurs interrogés. 34 % ont un score de 3. Plus des deux-tiers des professeurs interrogés ont exprimé dans le champ Santé Environnement une finalité éducative en terme de prévention et seuls 9 % d’entre eux ont un score inférieur ou égal à 1.

      

      Exemples d’attitudes et de comportements préventifs que les professeurs interrogés cherchent à développer en abordant SIDA et M.S.T. :

      

       _ se sentir concerné,

       _ s’informer, se tenir informé,

       _ dialoguer avec son partenaire,

       _ discuter avec une personne de confiance,

       _ identifier les situations à risques,

       _ adopter une attitude de prudence lors d’une première relation avec un « inconnu »,

       _ utiliser un préservatif, avoir des préservatifs sur soi.,

       _ utiliser un autre mode de contraception pour les filles,

       _ consulter en cas de doute, se rendre au centre de dépistage.

      

      2 professeurs ont noté:

       _ utiliser une seringue stérile pour les drogués,

       _ ne pas s’échanger de seringues.

      

      1 seul professeur a déclaré:

       _ se renseigner sur les pratiques de l’établissement où ils vont se faire un piercing- tatouage (stérilité des aiguilles, établissement salubre...).

      

      

      Concernant la consommation d’eau potable, des gestes simples peuvent contribuer à sa qualité.

      

      ne pas boire la première eau tirée au robinet qui a stagné 41 %

      attendre que l’eau soit fraîche (signe de purge des conduites) 2 %

      laisser reposer l’eau quelques temps avant de la consommer 10 %

      entreposer l’eau dans un récipient fermé au réfrigérateur 14 %

      entretenir soigneusement carafe et robinetterie 2 %

      faire bouillir l’eau 2 %

      filtrer l’eau 14 %

      ne pas polluer l’eau 15 %

      

      Tableau 3.13 : Nombre de professeurs (en %) proposant des gestes simples aux élèves afin de leur permettre de consommer une eau du robinet de qualité

      

      

      C’est l’injonction à ne pas boire la première eau tirée au robinet qui est formulée par 41 % des professeurs interrogés car celle-ci ayant stagné, elle a accumulé les différents micro-polluants susceptibles de se trouver dans le réseau. Par contre seuls 2 % disent parler de l’entretien de la carafe et de la robinetterie. Aucun n’a proposé de déconseiller de cuisiner avec de l’eau chaude sanitaire (surtout si elle est adoucie).

      

      Développer l’implication citoyenne

      

       Bien que 52 % des professeurs interrogés ont signifié leur désir de voir développer la citoyenneté chez leurs élèves, aucun n’exprime par ce questionnaire la mise en oeuvre d’activités permettant le développement de l’implication citoyenne, (q42,48,68) comme par exemple l’incitation à interpeller les décideurs économiques afin de leur faire assumer leur responsabilité sociale. Prenons l’exemple de la campagne qui démarre en mars 2004 « jouez le jeu pour les J.O. » interpellant le C.I.O. et les entreprises liées au marché des articles de sport par l’intermédiaire des consommateurs ainsi amenés à devenir des citoyens plus conscients et plus actifs de leur choix de consommations. Cette campagne est organisée par le collectif de l’éthique sur l’étiquette dont l’objectif est de faire respecter les droits de l’homme au travail et d’essayer de mettre en place un label de progrès social qui pourrait garantir que les produits fabriqués par les grandes entreprises respectent les conventions de l’Organisation Internationale du travail. Concrètement, il est demandé aux consommateurs d’envoyer des cartes postales aux enseignes de la distribution et aux marques de sport et de signer une pétition internationale à destination du CIO. Il semble donc possible de signaler aux élèves ce type de campagne lorsque l’on a analysé et débattu d’une problématique concernant le citoyen consommateur.

      

      

      La pertinence des démarches proposées aux élèves est mesurée par la réponse à la question

      42 : « quelles démarches proposez-vous aux élèves d’entreprendre afin qu’ils s’informent sur la qualité du réseau d’adduction de leur domicile? »

      

      S’adresser à la mairie 50 %

      faire réaliser des tests à domicile 7 %

      faire appel à une association de consommateurs (kits d’analyse) 0 %

      

      Tableau 3.14 : Nombre de professeurs (en %) ayant proposés des démarches pertinentes afin de permettre aux élèves citoyens consommateurs de s’informer sur la qualité de l’eau distribuée au robinet de leur domicile.

      

      Si 50 % des professeurs interrogés proposent de s’adresser à la mairie, seuls 7 % d’entre eux citent également la possibilité pour un coût raisonnable de réaliser des tests à domicile, aucun ne fait référence aux associations de consommateurs qui peuvent mettre à disposition des kits d’analyse mais aussi aider à interpréter les résultats et à comparer avec la qualité de l’eau proposée dans d’autres communes.

      

      

      La volonté d’éducation citoyenne peut émerger de 2 questions proposées aux professeurs. La question 48 porte sur les propositions élaborées avec les élèves pour réduire la facture d’eau de leur habitation. Bien sûr les propositions portant sur les moyens de limiter la consommation et d’éviter le gaspillage sont pertinentes. Mais en tant que citoyen, le consommateur a des droits, celui à l’information sur le prix de l’eau dans sa commune, sur le choix du distributeur (« 27 % d’économies quand la commune administre elle-même le service de l’eau .» (Analyse de la gestion de l’eau dans 5000 communes par l’Institut Français de l’Environnement, Que Choisir?, 383, juin 2001, p60)) ... L’association Consommation, Logement et cadre de Vie a formulé 35 propositions pour le droit à l’eau et à l’assainissement lors de la journée mondiale des droits du consommateur le 15 mars 2004 dont « un vrai débat démocratique pour le choix du mode de gestion de l’eau », « la limitation de la durée des contrats de délégation à des sociétés privées », « une véritable transparence, garantie par un organisme indépendant, sur le coût du traitement, de la distribution de l’eau et de l’assainissement des eaux usées » et « une application plus rigoureuse et équitable du principe « pollueur payeur » car actuellement les consommateurs domestiques supportent plus de ¾ du coût de l’assainissement ». Les professeurs ont donc la possibilité de reprendre ces revendications comme problématiques d’étude.

      

      La question 68 a trait aux aliments issus d’O.G.M., un véritable débat démocratique a été initié sur cette problématique, relayé par les associations de défense des consommateurs. L’objectif général d’une séquence portant sur les aliments issus d’O.G.M. est de permettre à l’élève- citoyen-consommateur de prendre part à ce débat, en favorisant la prise de conscience des impacts environnementaux et socio-économiques des choix de consommation, en développant sa curiosité et en le poussant à l’action en l’aidant à concevoir et à promouvoir des alternatives.

      

      

      prendre position dans un débat passionnel, exploité idéologiquement et 0 %

      brouillé par les intérêts économiques

      

      Tableau 3.15 : Nombre de professeurs interrogés (en %) ayant formulé l’objectif général d’une séquence d’éducation à la consommation portant sur les O.G.M. en terme d’incitation à prendre part au débat citoyen.

      

      Aucun des professeurs interrogés n’a formulé cet objectif.

      

      

      

      

      Développer l’esprit critique

      

       Deux exemples de problématique permettant de développer l’esprit critique des élèves lors de la mise en oeuvre de situations d’apprentissage sont proposés dans le questionnaire. La première problématique porte sur : « se faire vacciner contre l’hépatite B, quels bénéfices ?, quels risques ? », la deuxième sur les « nouveaux risques alimentaires ».

      

      Lorsqu’on aborde le problème de la vaccination contre l’hépatite B (q36), il est nécessaire que l’élève prenne conscience qu’il est (avec sa famille) responsable de son choix. Qu’il lui appartient après avis médical de soupeser les risques et les bénéfices de cet acte de prévention. Il semble donc fondamental qu’il puisse à l’aide de différentes informations se forger sa propre opinion en ayant repéré validité et enjeux de ses sources d’information. L’élève de B.E.P. Carrières Sanitaires et Sociales (C.S.S.) doit savoir que pour le personnel hospitalier, la vaccination contre l’hépatite B est obligatoire, qu’il se trouve de par sa profession être une personne à risque et être en mesure de présenter au médecin les éventuels antécédents familiaux de S.E.P.. Or, le premier message n’est formulé que par 42 % des professeurs interrogés pour des élèves de B.E.P. industriels ou tertiaires et le second par 29 % d’entre eux pour des élèves de C.S.S. (q37).

      

      

      

      esprit critique / différentes études 10 %

      responsabilité individuelle / évaluation des risques 8 %

      

      Tableau 3.16 : Activités menées par les professeurs interrogés (en %) lorsqu’ils abordent en classe, la vaccination contre l’hépatite B.

      Seuls 10 % des professeurs interrogés mettent en oeuvre des situations permettant aux élèves de se forger leur opinion personnelle au sujet de la vaccination contre l’hépatite B: « à partir d’extraits de journaux », d’«articles de point de vue opposé » de « textes réglementaires » et « débattre sur le danger : en cas d’erreur médicale, en cas de non vaccination». 8 % expriment le souci d’une prise de conscience de la nécessité d’évaluer les risques de manière individuelle afin de prendre une décision responsable.

      

      

      sensibiliser à ce problème d’actualité 3 %

      faire comprendre ce qu’est un aliment qui contient des OGM 5 %

      développer un esprit critique 2 %

      permettre une approche raisonnée du risque 7 %

      repérer sur une étiquette la présence ou non d’OGM 5 %

      

      Tableau 3.17: Nombre de professeurs (en %) formulant leurs objectifs en terme de développement de l’esprit critique dans le cadre d’une séquence traitant des O.G.M..

      

      Concernant les « nouveaux » risques alimentaires liés à la consommation d’aliments issus d’OGM (q68), les 36 % des professeurs abordant cette question expriment dans la formulation des objectifs, leur volonté de développer l’esprit critique de leurs élèves. De même les 29 % des professeurs abordant la consommation de viande de bœuf expriment la volonté de mettre en oeuvre autour de cette problématique des situations d’apprentissage permettant de développer l’esprit critique des élèves afin de leur permettre de se forger une opinion personnelle.

      

      

      

      

      

       choix raisonné 14 %

       savoir déchiffrer l’étiquette 7 %

       expliquer le label A.B. 2 %

       consommateur averti, structure, protection 2 %

       dédramatiser: 27 %

      _ sensibiliser les élèves aux techniques récentes de productivité et débattre de

       la polémique que cela occasionne,

      _ dédramatiser les mauvaises rumeurs que font circuler parfois les médias,

      _ faire acquérir une représentation plus juste du problème compte tenu des connaissances actuelles (démystifier les fausses croyances), permettre de faire un choix critique,

      _ rendre les élèves acteurs de leurs achats, leur permettre d’avoir un regard critique,

      _ être consomm’acteur, éviter les peurs, informer, expliquer, éviter de faire peur.

      

      Tableau 3.18 : Nombre de professeurs (en %) formulant leurs objectifs en terme de développement de l’esprit critique dans le cadre d’une séquence traitant de l’E.S.B.

      

      L’étiquetage est une source importante d’information mais sa lecture et sa compréhension ne sont pas toujours aisée. Il semble donc pertinents que les professeurs interrogés expriment le souci dans un premier temps de permettre aux élèves de décrypter les étiquettes.

      

      Il apparaît donc que pour environ 1/3 des professeurs interrogés, l’éducation du consommateur en matière d’alimentation est une éducation au discernement car elle permet de faire la part entre information et désinformation, entre information et message publicitaire. Ainsi elle permet à l’élève de ne pas se laisser séduire ou berner, ni de se laisser effrayer par des risques surestimés.

      

      

      

      

      

      

      

       Item 5. Diversifier les activités pédagogiques proposées

      

       Sur chacun des trois thèmes : la prévention des M.ST, l’eau potable et la sécurité alimentaire, les professeurs étaient invités à citer les activités qu’ils mettent en oeuvre pour traiter ces sujets (q25, 37, 62, 72). La diversité des activités pédagogiques proposées par les professeurs interrogés et leur adéquation avec celles proposées dans le livret d’accompagnement de la Vie Sociale et Professionnelle et dans les orientations ministérielles concernant l ’éducation Santé Environnement apparaît dans le graphique ci-dessous, le score maximal est de 7. Soulignons que 12 % des professeurs interrogés n’ont cité aucune activité.

      

      

      

       Graphique 3.19 : Activités pédagogiques mises en oeuvre par les professeurs interrogés

      (en abscisse : activités pédagogiques proposées, en ordonnée : nombre de professeurs)

      

      

      La compétence que 75 % des professeurs interrogés développent chez leurs élèves est l’analyse de documents. Ainsi, sur le thème de l’eau potable, 59 % des professeurs (q62) mettent en oeuvre des situations d’apprentissage basées sur l’étude de documents.

      

      études de documents 59 %

      dont:

      étude de facture d’eau 17 %

      étude d’étiquettes et comparaisons 19 %

      étude d’articles de presse / pollutions 2 %

      étude d’une analyse d’eau potable 8 %

      

      Tableau 3.20 : Nombre de professeurs (en %) étudiant différents support de documents en classe sur le thème de l’eau potable.

      

      L’analyse de documents est sans nul doute la plus simple activité pédagogique à mettre en oeuvre en classe.

      

      L’observation (entendue comme première phase d’une démarche expérimentale) ou la sensibilisation par la visite d’une exposition, du planning familial, d’une station d’épuration.ou l’écoute d’une conférence sont développées par 47 % des professeurs interrogés.

      

      La communication, dernière phase d’une stratégie de résolution de problème (réalisation d’une exposition, d’affiches, de livret, d’exposés ou encore de débats...) est développée par 36 % des professeurs interrogés. 78 % d’entre eux déclarent organiser et mettre en oeuvre des débats pour traiter du thème « prévention SIDA, M.S.T. » (q26) selon différentes modalités concernant l’animation :

       _ seul pour 24 % d’entre eux ;

       _ en faisant appel au planning familial pour 41 % ;

       _ en faisant appel à un autre intervenant (médecin, infirmière, association...) pour 35 %.

      Privilégier un espace de parole sur des sujets aussi sensibles et intimes, c’est il nous semble, permettre aux élèves d’élaborer leur propre réponse à partir de la mise en commun et de l’analyse des représentations dans le respect de la parole de chacun. C’est pour le professeur, accompagner une réflexion commune et contribuer à ce que chacun construise un savoir le mieux argumenté possible. Le débat argumenté contribue ainsi à aider les élèves à développer outre le respect et la tolérance, des attitudes de responsabilité individuelle, familiale et sociale.

      

      

      De même dans le domaine de l’éducation à l’alimentation, il semble nécessaire de «  privilégier des approches reposant sur l’écoute, le dialogue et la participation » afin de « construire les argumentaires à partir des propres connaissances et représentations des groupes-cibles (y compris de leurs idées fausses et de leurs a priori), de leurs contraintes effectives ou ressenties; reconnaître et valoriser les bonnes pratiques alimentaires... » ( Ologoudou M., 2004, p125)

      L’élaboration de documents en tant que formalisation du savoir construit n’est mise en oeuvre que par 29 % des professeurs interrogés, de même que les activités d’enquête, de recherche autonome d’information et d’expérimentation ne sont proposées que par 25 % d’entre eux (selon les réponses obtenues au questionnaire). Pourtant, doter les élèves de nouveaux savoir-faire en termes notamment de recherche d’informations et d’interprétation permet de faire appel à leur intelligence et à leur esprit critique.

      

      

      activités de recherche dont: 14 %

      calcul de la quantité d’eau consommée selon l’activité 7 %

      lecture du compteur 2 %

      

      expériences dont: 7 %

       - goûter différentes eaux

       - tester la dureté

      

      Tableau 3.21 : Nombre de professeurs (en %) mettant en oeuvre diverses activités de recherche et / ou des expériences en classe sur le thème de l’eau potable.

      

      

      Seuls 10 % des professeurs interrogés disent mettre en oeuvre des projets ou des activités de simulations (logiciels, jeux de rôle). Pourtant 44 % déclarent (q20) avoir mené des projets d’éducation Santé Environnement avec leur classe.

      

      Aucun Au moins un

      44 % 44 %

      

      Tableau 3.22 : Nombre de professeurs (en %) ayant mené des projets d’éducation Santé Environnement avec leurs classes.

      semaine à thème: 10 %

       santé environnement 2 %

       semaine petit déjeuner 7 %

      

      prévention des risques / sécurité: 30 %

       conduites addictives 3 % alcool 14 %

       tabac 7 % acteur de santé sécurité au travail 2 %

       sécurité routière 2 %

      

      santé: 26 %

       visite bilan à l’institut Pasteur: 2 %

       action char à voile (peau - mer) 2 %

       parcours santé - sport 2 %

       prévention M.S.T. sida 7 %

       corps et hygiène 2 %

       ado. et mère 2 %

       contraception sexualité 2 %

       repas à la cantine 2 %

       faut-il avoir peur de manger ? 2 %

       don du sang et don d’organes 2 %

      

      environnement: 16 % eau 2 %

       gestion et tri des déchets, opération bahut propre 5 %

       semaine refus de la violence: respect de l’environnement 2 %

       pollution de l’air 5 %

      

      Tableau 3..23 : Nombre de professeurs (en %) ayant mené différents projets d’éducation Santé Environnement avec leurs classes.

      Ces projets apparaissent comme ponctuels, extérieurs au cadre disciplinaire habituel et ne semblent pas s’inscrire dans une pratique pédagogique « quotidienne » d’apprentissage par l’action. Néanmoins, nombreux sont les professeurs qui ont déclaré faire appel à des partenaires extérieurs pour aborder les différentes problématiques Santé Environnement. Ainsi, (q26) 70 % des professeurs font appel à un intervenant ou à un organisme pour traiter le thème Sida MST.

      

      planning familial 41 %

      infirmière du L.P. 17 %

      médecins, spécialistes 14 %

      centre de prévention santé 5 %

      associations dont AIDS 12 %

      institut pasteur 2 %

      CPAM 2 %

      

      Tableau 3.24 : Nombre de professeurs faisant appel à divers intervenants et organismes pour traiter le thème sida MST avec leurs classes

      

      

      débat 78 %

      conférence 25 %

      exposition 15 %

      théâtre interactif 2 %

      dialogue 2 %

      semaine santé 2 %

      

      Tableau 3.25 : Nombre de professeurs (en %) mettant en oeuvre différentes activités avec les partenaires sur le thème sida MST

      

      

      

      

      

      permettre aux élèves de s’exprimer davantage 15 %

      apporter un complément d’information 8 %

      « pour ajouter du poids, rendre plus important mon cours » 2 %

      organismes ayant de l’expérience 15 %

      interviennent régulièrement dans l’établissement 5 %

      ont une autre approche du problème 2 %

      « sont plus compétents que moi » 2 %

      ont l’habitude des jeunes 2 %

      ceux sont des travailleurs de terrain 2 %

      peuvent apporter une aide aux élèves 2 %

      pour leur réalisme 2 %

      ils ont une autre approche du problème 2 %

      ils ont un angle de discussion médicalisé 2 %

      c’est un point de vue extérieur 2 %

      « en relation avec les élèves sous d’autres aspects que la 2 %

      relation enseignant-élève (/infirmière) »

      « les élèves sont contents » 2 %

      

      Tableau 3.26 : Raisons pour lesquelles certains professeurs font appel à des intervenants extérieurs sur le thème sida MST

      

      

      Les raisons majoritairement annoncées sont de permettre aux élèves de s’exprimer davantage parce que ces intervenants ont l’habitude du public et parce qu’« extérieurs » à l’établissement ils n’ont pas avec ceux-ci de relation professeur-évaluateur-élève. D’autre part, les professeurs les sollicitent afin de profiter de leur compétence et de leur professionnalisme.

      

      De même pour aborder avec les élèves le problème des risques liés aux changements de régime alimentaire (q72), 8 % des professeurs organisent des conférence-débats avec une infirmière ou une diététicienne.

      

      

      

       Item 6. Etre informé des différents supports de ressources documentaires et des modalités pour y accéder

      

       Les professeurs étaient invités à indiquer les ressources exploitées pour aborder le thème M.S.T., SIDA (q40) et celui de l’eau potable (q63). La nature et la diversité des ressources exploitées sont mesurées. Le score maximal est de 9, un seul professeur a atteint 7.

      

       Tableau 3.27 : Ressources exploitées par les différents professeurs

      (en abscisse: ressources exploitées, en ordonnée: nombre de professeurs)

      

      Les professeurs interrogés font majoritairement (à 88 %) appel à des organismes ou des institutions spécialisées (Agence de l’eau, Ministère de l’Environnement, ADEME, CRAM, CPAM, ADOSEN, CIEau...) ou à leurs relais pour 68 % (Maison Régionale de Prévention de la Santé, Maison de la Nature et de l’Environnement, planning familial...).

      Aucun ne déclare faire appel à des associations locales telles :

      _ Alliance (Paysans Ecologistes consommateurs) qui propose une mallette pédagogique « pour une consommation responsable » présentée lors du forum annuel des outils pédagogiques pour l’éducation à l’environnement. Cette association intervient dans les classes à la demande des enseignants et organise des rencontres, conférences débat sur alimentation et santé, l’information du consommateur mais aussi le commerce équitable et l’économie solidaire, sur des thèmes comme la qualité de l’eau, l’agriculture durable, l’ESB et l’alimentation animale, les OGM...

      _ Léo Lagrange, association pour la défense des consommateurs (A.L.L.D.C.) rattachée à la thématique « éducation à la consommation ». L’association a pour mission d’éduquer, protéger et défendre le consommateur, le responsabiliser et lui donner les moyens d’acquérir une pleine citoyenneté économique.

      

      30 % des professeurs interrogés utilisent des revues scientifiques (La Recherche, Pour la Science...) ou encore des magazines ( de la MGEN, du Conseil Général...) ou des quotidiens (22 %). Les revues de vulgarisation (Science et Vie, Euréka...) ne sont exploitées que par

      13 % des professeurs interrogés et peu (12 %) utilisent les revues d’information du consommateur (Que Choisir ?, 60 millions de consommateurs). Pourtant il y a en France 18 associations nationales de consommateurs dont l’ UFC Que Choisir mais aussi la CLCV (Consommation Logement Cadre de Vie ) qui met ses actions aux services des « citoyens au quotidien » pour les aider dans les domaines de la consommation (dont alimentaire) et du cadre de vie (bruit, déchets, énergie et eau).

      

      Sur le plan pédagogique, 29 % des professeurs interrogés utilisent les manuels scolaires (nombreux en V.S.P.), mais peu (10 %) exploitent les lieux ressources pour le professeur, à savoir le C.D.I. de son établissement et le C.R.D.P.. Peu également consultent le B.O.E.N. afin de s’informer sur les orientations ministérielles (par exemple : journée mondiale contre le SIDA) ou le J.O. afin d’obtenir l’intégralité d’un texte de loi (exemple : le décret fixant les normes de potabilité de l’eau d’adduction). Par contre 39 % des professeurs interrogés utilisent des ressources audiovisuelles et 17 % effectuent des recherches sur le Net .

      

      

       Item 7. S’impliquer dans les activités extra disciplinaires, au sein du lycée professionnel.

      

       Le score maximal est de 3 à la question 15 « Etes-vous responsable ou membre acteur d’un club, d’un comité, d’une association, d’un projet dans l’établissement scolaire? ». 36 % des professeurs répondent oui. Mais nombreux sont les professeurs ne s’impliquant pas dans la vie de leur établissement (ils sont 64 %) et seuls 5 % participent à 2 structures ou projets.

      amicale du lycée 10 % projet sécurité 2 %

      P.P.C.P. 5 % projet petit déj 2 %

      C.E.S.C. 2 % projet restau. convivial 2 %

      club santé 2 % élève acteur de prévention 2 %

      club secourisme 2 % aumônerie 2 %

      théâtre 2 % club Internet 2 %

      C.V.L. 2 % sport 2 %

      projet de formation aux techniques de recherche d’emploi 2 %

      

      Tableau 3.28 : nombre de professeurs s’impliquant dans différents projets et structures de l’établissement

      

      

      Le professeur de Biotechnologie Santé Environnement peut s’impliquer comme tout enseignant dans le projet d’établissement mais aussi a vocation privilégiée à participer au Comité d’Education Santé Citoyenneté (2 % déclarent y participer), à la Commission d’Hygiène et de Sécurité (aucun) ou encore à faire fonctionner un club Santé (2 %) ou secourisme (2 %). Il leur est possible également d’être intégré à un Projet Pluridisciplinaire à Caractère Professionnel (5 %). S’impliquer au sein de projets ou de structures diverses de l’établissement scolaire c’est rechercher, avec ses pairs ou les autres adultes de l’institution, les moyens d’articuler la vie dans la classe et la vie dans l’établissement pour mieux éduquer. Ainsi par exemple la circulaire interministérielle du 25 juin 2001 relative à la restauration scolaire recommande « d’organiser autour de l’alimentation des animations pour éduquer le goût des élèves, valoriser le patrimoine alimentaire, permettre l’utilisation d’un vocabulaire précis sur les saveurs, expliquer les processus de fabrication des aliments, leur composition, déguster des spécialités locales, découvrir des odeurs, apprécier l’association des couleurs. Elle encourage des actions pour une éducation au goût avec la participation d’intervenants extérieurs à l’occasion d’animations dans le cadre du projet d’école ou du projet d’établissement. » (Ologoudou M., 2004, p74,75)

      

      

      

      


1. 3.Variables indépendantes

      

       1.3.1. formation professionnelle initiale : (q5)

      

      

      

       Graphique 3.29 : Répartition des professeurs interrogés selon leur formation professionnelle initiale

       Les professeurs de Vie Sociale et Professionnelle peuvent être issus de concours externes ou internes de recrutement. S’ils n’ont jamais enseigné (ou possèdent seulement une très courte expérience), les lauréats du concours externe sont affectés, pour un an, à l’Institut Universitaire de Formation des Maîtres en tant que professeurs stagiaires. Ces Instituts ont par la Loi d’orientation du 10.07.1989 remplacé les Ecoles Normales Nationales d’Apprentissage où les professeurs issus des concours externes mais aussi internes étaient formés pendant un ou deux ans. 34 % n’ont bénéficié d’aucune année de formation parce qu’ils sont Maîtres Auxiliaires ou Contractuels ou encore issus de concours internes, affectés directement sur poste.

      

      

       1.3.2. implication sociale

      

       Trois questions (q13,14,15) permettent de mesurer l’implication du professeur interrogé dans la vie sociale. Le score maximal est de 3 (0 ou 1 par question selon que l’on est membre ou responsable ou aucun des deux).

      

      

      

       Graphique 3.30 : scores d’implication sociale obtenus par les différents professeurs interrogés

      Le graphique représente donc les différents degrés d’implication dans la vie sociale des professeurs interrogés. 34 % des professeurs interrogés ne sont pas du tout impliqués dans la vie sociale et seuls 14 % ont un score maximal. Parmi les professeurs impliqués dans la vie sociale, 5 % le sont dans le domaine de l’environnement (association de défense de l’environnement) et 3 % dans le domaine de la citoyenneté (mouvements des citoyens). 2 % des professeurs impliqués dans la vie extra-scolaire de leur établissement le sont dans le domaine de la prévention des risques professionnels.

      

      

      

       1.3.3. implication politique

      

       Ce sont les questions 8, 12 et 14 qui permettent de mesurer le degré d’engagement politique des professeurs interrogés. Le score maximal d’engagement est de 5. A la question (8) concernant la tendance politique dont le professeur se sent le plus proche. Le score est de 0 si le professeur refuse de répondre. Il est de 1 s’il ne souscrit à aucune idéologie politique et de 2 si la tendance politique est affichée. Il est ensuite demandé au professeur s’il participe aux élections (q12) : le score est de 2 lorsqu’il déclare voter lors de toutes les élections, de 1 lorsqu’il déclare le faire « presque toujours » et de 0 s’il déclare ne jamais voter. Si le professeur exerce une responsabilité syndicale (q14), il lui est attribué un score de 1 (sinon 0).

      

      

      

      

       Graphique3.31 : scores d’implication politique obtenus par les professeurs interrogés

      Le graphique rend compte du degré d’implication politique des professeurs interrogés. Seuls

      3 % ont obtenu un score maximal et 12 % un score minimal. 14 % des professeurs interrogés déclarent se sentir proches des partis écologistes et 8 % du mouvement des citoyens anti-mondialisation. Ces professeurs ont tous un degré d’engagement élevé (score ≥ 3).

      

      

       1.3.4. Implication éthique

      

       Elle regroupe l’implication religieuse et le degré d’attachement aux valeurs de la société moderne.

      

      implication religieuse

      

      

      

       Graphique 3.32 : scores d’implication religieuse obtenus par les professeurs interrogés

      Nous avons convenu d’attribuer un score nul aux professeurs qui ont refusé de répondre à la question (9) portant sur leur confession religieuse. Ils sont 15 %. Les professeurs se déclarant sans religion ont un score de 1 et sont 20 %. 58 % se déclarent croyants non pratiquants (score de 2) et 7 % s’affichent comme croyants pratiquants (score de 3).

      

      

      

      

      

      -abandon des valeurs de la société moderne

      

      

      

       Graphique 3.33 : valeurs réfutées par les professeurs interrogés

      (abscisse: valeurs réfutées, ordonnée: nombre de professeurs sur 59)

      

      

       Les professeurs étaient invités à rayer les valeurs auxquelles ils n’adhèrent pas parmi une liste qui leur était proposée (q10). A chaque valeur symbole de la société moderne rayée est attribuée 1 point. Ces valeurs étant au nombre de 7 (individualisme, rentabilité, productivité, confort, efficacité, travail et progrès), le score maximal est de 7. La valeur la plus rayée (par 76 % des professeurs interrogés) est la paresse, vertu qui se conjugue difficilement avec le métier d’élève. Viennent ensuite les valeurs emblématiques de la société moderne: l’individualisme (73 %), la rentabilité (58 %) et la productivité (44 %). La majorité des professeurs interrogés n’adhèrent donc pas à ces valeurs pourtant prônées dans la vie sociale et professionnelle. Par contre d’autres valeurs de la société moderne ne sont pas refusées par ces mêmes professeurs. Il s’agit de l’efficacité, du confort et du progrès. Aucun des professeurs n’a rayé le travail.

      

      

      1.3.5. Implication émotionnelle

      

       Lorsqu’ils sont interrogés sur la vaccination contre l’hépatite B, la justification du choix de boire de l’eau embouteillée ou encore leur consommation de viande de boeuf, 33% des professeurs interrogés expriment un sentiment de peur concernant l’un ou l’autre de ces sujets. Le score maximal d’implication émotionnelle est de 3.

      

      

       Graphique 3.34 : répartition des peurs exprimées sur 3 sujets: consommation d’eau potable, consommation de viande de boeuf et vaccination contre l’hépatite B

      C’est la peur de consommer une eau polluée en métaux lourds, nitrates ou pesticides qui est avancée comme justification du choix de consommer de l’eau embouteillée (pour 20 % des professeurs interrogés (q43)). Encore elle, qui a poussé 28 % d’entre eux à modifier leur comportement alimentaire vis à vis de la viande de bœuf (q69). Elle toujours qui conditionne 1 professeur à formuler un message anxiogène vis à vis de la vaccination contre l’hépatite B pour ses élèves de B.E..P. industriels ou tertiaires (q36).

      

      

       1.3.6. Implication cognitive

      

       Afin de mesurer l’implication cognitive, il a été demandé aux professeurs interrogés la nature des études suivies et leur niveau de qualification (q4) ainsi que leur implication dans la formation continue professionnelle (q6) ou sur le plan personnel (q7). Le score maximal d’implication cognitive est de 9.

      

      La nature des études suivies

      

       Elle a été divisée en 3 domaines :

      

       _ Sciences de la vie (Sciences Naturelles, Biologie des organismes, Biochimie...),

       _ Sciences et Techniques (Economie Familiale et Sociale, Biologie appliquée...),

       _ Diplômes d’études professionnelles (Conseillère en E.S.F., Diplôme d’état de pédicure, podologue, monitorat d’enseignement ménager...).

      

      

      

       Graphique 3.35 : répartition des professeurs interrogés selon la nature de leurs études supérieures

      4 niveaux de qualification sont représentés du niveau IV au niveau I (Doctorat de Microbiologie).

      

      

      

       Graphique 3.36 : répartition des professeurs interrogés selon leur niveau de qualification

      Depuis 1988, il est nécessaire d’être titulaire d’une licence pour s’inscrire au Concours externe d’Accès au grade des Professeurs de Lycée Professionnel comme aux autres concours de recrutement de professeurs du secondaire. C’est pourquoi le nombre de professeurs licenciés est en constante augmentation (50 % des professeurs interrogés) et dépasse celui des techniciens supérieurs (42 %). Signalons qu’un professeur a fait des études littéraires (licence de lettres modernes) et un autre s’est spécialisé dans l’environnement (D.E.A. d’Ecologie et Evolution).

      

      Afin de se former ou de compléter leur formation, les professeurs ont la possibilité de s’inscrire chaque année à des stages de formation continue. 70 % des professeurs (hors stagiaires) interrogés y participent (q6) dont 21 % chaque année. Aucun d’eux n’a signalé avoir participé à une formation portant sur la pédagogie de projet d’action éducative en Santé environnement.

      

       Enseignement pour la Prévention des Risques Professionnels 47 %

       dont monitorat Sauveteur Secouriste du travail et gestes et postures 26 %

       HACCP 11 %

       Vie Sociale et professionnelle 6 %

       Informatique 6 %

       Adolescent 2 %

       Technologie en SEGPA 2 %

       L’adolescent 2 %

       L’éducation sexuelle 2 %

       Qualité 2 %

       Travail de groupe 2 %

       Geste et voix 2 %

       Aide aux élèves en difficultés 2 %

       Recherche documentaire 2 %

      

      

      Tableau 3.37 : modules de formation continue suivis par les professeurs interrogés (nombre de professeurs exprimé en %)

      

      

      Dans la grande majorité des cas, les professeurs se sont formés à l’Enseignement de la Prévention des Risques Professionnels (notamment par l’obtention du monitorat de sauveteur secouriste du Travail ou Gestes et Postures) mais aussi à la méthode HACCP ou à l’enseignement de la VSP ou encore se sont initiés aux techniques informatiques.

      

      Sur le plan personnel, 2 des professeurs interrogés poursuivent leurs études universitaires. Aucun ne poursuit de formation auprès d’un autre organisme. Le score maximal d’implication dans la formation tout au long de la vie des professeurs interrogés est donc de 3.

      

       Graphique 3.38 : scores d’auto-formation obtenus par les professeurs interrogés

      (en abscisse: les scores obtenus, en ordonnée: le nombre de professeurs sur 59)

      

      

      Seul 1 professeur a atteint le score maximal. Plus de la moitié des professeurs déclarent ne pas s’impliquer dans une formation hors du cadre professionnel. Néanmoins 32 % des professeurs interrogés ont souscrits un ou plusieurs abonnements à des revues spécialisées et 15 % déclarent assister régulièrement à des conférences.

      

      

      

       1.3.7. Implication déontologique

      

       Le score d’implication déontologique dépend de plusieurs paramètres portant sur la connaissance des missions de l’école (q18), la capacité à définir : enseigner, former, éduquer et animer (q16), l’acceptation du rôle d’éducateur tenu par le professeur du secondaire (q17), l’adhésion aux valeurs socles des institutions (q10), l’implication dans la formation des pairs et enfin l’attention portée aux innovations pédagogiques. Le score maximal d’implication déontologique est de 14.

      Retranscrire les missions de l’école (q18), c’est se référer à la Loi d’orientation du 10.07.1989 pour citer les 4 composantes : exercer sa citoyenneté, développer la personnalité, élever son niveau de formation et permettre l’insertion dans la vie sociale et professionnelle.

      

      

       Graphique 3.39: scores de connaissance des missions de l’école obtenus par les professeurs interrogés

      (en abscisse: scores obtenus, en ordonnée : nombre de professeurs sur 59)

      

      1 seul professeur a cité les 4 dimensions, 10 en ont cité 3, 27 en ont cité 2, 13 en ont cité une, 3 n’en ont cité aucune et 5 n’ont pas répondu à cette question.

      

      Exercer sa citoyenneté 20 %

      Développer la personnalité 24 %

      Elever son niveau de formation 64 %

      permettre l’insertion dans la vie sociale et professionnelle 59 %

      

      Tableau 3.40 : missions de l’école exprimées par les professeurs interrogés

      

      Pour plus de la moitié des professeurs interrogés, l’école doit avant tout permettre à chacun d’élever son niveau de formation ainsi que de s’insérer dans la vie sociale et professionnelle.

      

      Définir : enseigner, former, éduquer et animer, c’est les percevoir de manière à cerner la pluralité des dimensions du métier de professeur du secondaire et à se positionner en tant que professeur de Biotechnologies Santé Environnement en lycée professionnel. Plus de 25 % des professeurs interrogés n’ont pas su donner de définition précise, plus de 50 % ont défini correctement 2 ou 3 verbes et 14 % les 4.

      

      

       former 42 %

       enseigner 37 %

       éduquer 47 %

       animer 56 %

      

      Tableau 3.41 : définitions proposées de 4 verbes: enseigner, former, éduquer, animer

      

      

      Donner sa représentation de la mission d’un P.LP, c’est pour 2/3 des professeurs interrogés intégrer la dimension éducative du métier.

      

      

       Graphique 3.42 : représentations de la mission du P.L.P. exprimées par les professeurs interrogés

      29 % d’entre eux estiment être en tant que professeur de Biotechnologies Santé Environnement en lycée professionnel, un éducateur mais aussi un enseignant, un formateur et un animateur. Mais les professeurs s’estiment avant tout être des enseignants (78 %) avant d’être des éducateurs (66 %).

      

      

      Adhérer aux valeurs socles des institutions ne pose apparemment pas de problème aux professeurs interrogés. En effet, de manière générale dans la liste de valeurs proposée (q10), les valeurs socles des institutions: liberté, équité et laïcité n’ont pas été rayées. Signalons néanmoins que 3 professeurs ont rayé la laïcité, 1 l’équité, 1 autre la tolérance et 3 enfin la responsabilité.

      

      

      78 % disent prêter attention aux innovations pédagogiques (q19) par différents biais.

      

      

      ouvrages des sciences de l’éducation 19 %

       Internet 19 %

      collègues, bouche à oreille 17 %

      réunions, formations 14 %

      B.O.E.N. 12 %

      revues spécialisées 12 %

      logiciels, CD Rom 10 %

      C.R.D.P. 5 %

      catalogues / matériel didactique 3 %

      vidéos 3 %

      documentaliste 3 %

      manuels 2 %

      

      Tableau 3.43 : moyens et supports utilisés par les professeurs interrogés pour s’informer des innovations pédagogiques

      

      

      1 professeur sur 5 lit des ouvrages des sciences de l’éducation ou consulte sur Internet les sites des professeurs de Biotechnologies ou des Sciences de la Vie. Seuls un peu plus de 1 sur 10 consultent régulièrement le B.O.E.N. afin de s’informer des orientations ministérielles.

      12 % des professeurs interrogés sont des formateurs associés ou des maîtres de stage et à ce titre s’impliquent dans la formation de leurs pairs. (q 2)

      

      Nous avons procédé à un classement des professeurs en fonction de leur score d’engagement dans l’acte éducatif en Santé Environnement et retenu les 10 meilleurs scores.

      


1.4. Les professeurs ayant obtenu les 10 meilleurs scores

      

       Graphique 3.42 : représentations de la mission du P.L.P. exprimées par les professeurs interrogés
professeurs connaissances
interrogés concepts hép. B et C eau alimentation usage social total conn projet établissement
47 P.N.S. 3,3 2,09 3,62 1,57 2,74 13,23 0,53 0,49
59 profs 3,68 2,07 3,92 1,64 2,54 13,8 0,48 0,41
moy 10 +++ 5 3,9 18,3 0,9 1
professeurs
interrogés démar. globale esp. critique valeurs inst. responsabilité respect prévention
47 P.N.S. 3,55 0,23 3,11 0,36 0,21 2,89
59 profs 3,63 0,24 3,19 0,34 0,19 3,03
moy 10 +++ 4,7 0,8 3,7 0,6 0,4 3,9
professeurs
interrogés démarches objectifs activités ressources total I.O. total impl.
47 P.N.S. 0,64 0,77 3,57 2,6 20,21 18,02
59 profs 0,64 0,83 3,75 2,73 20,76 17,95
moy 10 +++ 1 3,4 5,4 4,1 32,2 21

      

      Tableau 3.44 : comparaison des résultats obtenus au questionnaire :

      moyenne des 59 professeurs interrogés, moyenne des 47 professeurs non stagiaires (P.N.S) et moyenne des 10 professeurs ayant les scores de respect des instructions officielles les plus élevés.

      

       Les professeurs qui parmi les 59 interrogés ont obtenu les 10 meilleurs scores de respect des instructions officielles ont un score moyen de 32.2 (contre 20.76 score moyen des 59) Leur score de maîtrise des connaissances est supérieur à celui de la moyenne (18.3 / 13.8), ils s’impliquent davantage dans leurs établissements (1 / 0.41) et mènent plus que les autres des projets d’éducation Santé Environnement (0.9 / 0.48). Il en est de même pour chacune des autres variables dépendantes : le score moyen de ces 10 professeurs est supérieur à celui de la moyenne des 59. C’est surtout pour la formulation des objectifs de manière conforme aux finalités de la V.S.P., pour la mise en oeuvre d’activités d’apprentissage variées et pertinentes et pour la mobilisation des ressources que les écarts de score sont les plus marqués (respectivement 3.4 / 0.83, 5.4 / 3.75 et 4.1 / 2.73). Nous remarquons également que le score moyen du total des implications de ces 10 professeurs est supérieur de plus de 4 points au score moyen des 59 (21 / 17.95). C’est pourquoi nous allons mener une étude des corrélations entre les variables étudiées. D’autre part, compte-tenu du fait qu’aucun des professeurs stagiaires du panel 1 n’est classé dans les 10 meilleurs scores, nous allons recherché d’éventuelles corrélations entre les variables étudiées dans un panel de 47 professeurs non stagiaires. Ainsi, les 12 professeurs stagiaires du panel 1 seront regroupés avec les 14 professeurs stagiaires du panel 2. Nous rechercherons également l’existence de liens statistiques linéaires entre les variables analysées au sein de ce panel de 26 professeurs stagiaires.

      

      


2. Analyse des corrélations

      

       Nous voulons ici rechercher l’existence d’un lien statistique linéaire entre les variables dépendantes et les variables indépendantes et concurrentes à partir des données du questionnaire. Nous allons pour ce faire calculer le coefficient de corrélation lineaire dans l’échantillon (les 47 professeurs non stagiaires ayant répondu au questionnaire). Compte-tenu de la taille de l’échantillon, nous considérons qu’il y a corrélation entre deux variables lorsque le coefficient de corrélation linéaire est supérieur à 0.312 (les bornes critiques étant -0.312 et +0.312). Dans ce cas, l’hypothèse de l’existence d’un lien linéaire entre deux variables dans la population est acceptée avec un risque maximal de 5 % de prendre une mauvaise décision. Nous nous référons à l’ouvrage « Méthodes quantitatives Humaines » de Grenon G. et Viau S. (1999).


2.1.Corrélations entre les variables dépendantes (mise en oeuvre de stratégies éducatives) et les variables indépendantes (implications dans la vie sociale et professionnelle) les variables concurrentes (statut, ancienneté, enseignement de l’EFS et formation initiale professionnelle)

      

      

      
score total I.O
implication sociale 0,260
implication politique 0,189
implication religieuse 0,119
Valeurs -0,279
implication émotionnelle 0,143
implication déontologique 0,423
implication cognitive 0,233
total des implications 0,370

      

      Tableau 3.45 : corrélations entre le respect des instructions officielles et l’implication personnelle du professeur dans sa vie sociale et professionnelle

      

      L’implication personnelle du professeur dans la vie sociale et professionnelle est corrélée avec l’engagement dans l’acte éducatif en Santé Environnement. Mais surtout, apparaît une corrélation entre l’implication déontologique du professeur et son engagement dans l’acte éducatif. La réflexion menée sur les missions de l’école et celles du professeur du secondaire chargé de l’éducation Santé Environnement, l’attention portée aux innovations pédagogiques et l’implication dans la formation des pairs ainsi que l’attachement aux valeurs socles des institutions sont corrélés avec la mise en oeuvre des orientations ministérielles et celles du programme de Vie Sociale et Professionnelle.

      

      
score total I.O
statut 0,331
score d’ancienneté 0,202
enseignement EFS 0,142
formation ini. prof. 0,301

      

      

      Tableau 3.46 : corrélations entre le respect des instructions officielles et les variables concurrentes

      Cet engagement dans l’acte éducatif est lui-même corrélé au statut. Un professeur titulaire peut plus qu’un professeur contractuel ou qu’un professeur stagiaire s’impliquer dans la vie de son établissement, mener des projets, diversifier ses pratiques et faire appel à des partenaires extérieurs.

      

       2.1.1. Maîtriser les contenus

      

      

      
concept hépatite Eau aliments SCORE usage social SCORE Total
implication sociale 0,150 -0,102 -0,052 0,018 -0,148 0,098 -0,028
implication politique 0,272 0,139 0,201 0,551 0,345 0.146 0.291
implication religieuse 0,096 0,293 0,269 0,328 0,393 -0,064 0,221
Valeurs 0,099 -0.01 0,046 -0,084 -0,077 -0,228 -0,038
implication émotionnelle 0,24 -0.05 0,036 0,035 0,056 0,124 0,157
implication déontologique 0,631 -0,017 0,132 0,331 0,163 0,205 0,352
implication cognitive 0,265 0,159 0,188 0,146 0,183 0,26 0,254
total des implications 0,587 0,087 0,237 0,382 0,255 0,185 0,38
statut 0,313 -0,24 0,264 0,279 0,176 0,257 0,258
score d’ancienneté -0,039 -0,268 -0,03 0,14 -0,052 0,150 0,001
ens.t EFS -0,154 -0,233 -0,004 0,206 -0,08 0,076 -0,041
formation ini. prof. 0,280 -0,08 0,28 0,232 0,211 0,246 0,3

      

      Tableau 3.47 : corrélation entre l’implication personnelle du professeur dans sa vie sociale et professionnelle et la maîtrise de contenus du champ Santé environnement

      

      

      Globalement, nous observons une corrélation entre la maîtrise des contenus et la totalité des implications (0.38). L’implication personnelle du professeur dans la vie sociale et professionnelle et notamment son implication déontologique (0.352) sont corrélées avec la maîtrise des contenus enseignés (concepts opérants, connaissances scientifiques et techniques et connaissances d’usage social).

      

      

      

      

      Maîtriser les concepts opérants

      

       C’est pour la maîtrise des concepts opérants que ces corrélations sont les plus significatives, notamment avec l’implication déontologique (0.631). Le fait de s’interroger sur sa mission en tant que professeur du secondaire chargé de l’éducation Santé Environnement, de mener une réflexion sur celle-ci et ses finalités est corrélée avec l’appropriation des concepts de danger, de risque, d’appréciation et d’évaluation. Les professeurs titulaires sont par nature plus stables et peuvent alors moins travailler dans l’urgence et prendre le temps nécessaire à la réflexion sur les concepts opérants et suivre leur évolution. Ainsi on observe une corrélation entre la maîtrise des concepts opérants et le statut (0.313).

      

      

      

      Maîtriser les connaissances scientifiques et techniques

      

      Les O.G.M., l’E.S.B., l’obésité sont des sujets qui concernent les enseignants mais aussi tout citoyen consommateur. La maîtrise des connaissances concernant les risques alimentaires est corrélée avec la totalité des implications (0.382). L’opinion que l’on se fait en terme de: « pour ou contre les O.G.M. ? », « pour ou contre l’élevage intensif ? » est fonction de l’idéal de société que l’on a choisi et de l’importance que l’on attribue au sacré. Ainsi il y a corrélation entre l’implication politique et la maîtrise des connaissances relatives aux risques alimentaires (0.551) mais aussi entre la celle-ci et l’implication religieuse (0.328).

      Quels que soient les sujets abordés (eau potable, hépatite B ou alimentation), la maîtrise des connaissances scientifiques et techniques est corrélée avec l’implication politique. Il existe ainsi un lien entre la volonté de dominer ces sujets et l’implication dans la vie de la cité. Par contre et c’est surprenant, aucune corrélation n’est observée entre la maîtrise des connaissances d’usage social et l’implication personnelle du professeur dans la vie sociale.

      

      

      

      

      

      

       2.1.2. Privilégier une approche globale

      

      

      

      
approche globale
implication sociale 0,155
implication politique -0,112
implication religieuse 0,09
valeurs 0,275
implication émotionnelle 0,043
implication déontologique 0,029
implication cognitive -0,025
total des implications -0,009
statut 0,013
score d’ancienneté -0,033
ens.t ESF 0,074
formation ini. prof. 0,065

      

      

      

      Tableau 3.48 : corrélation entre l’implication personnelle du professeur dans sa vie sociale et professionnelle et la mise en oeuvre d’une approche globale avec les élèves

      

      

      

      

      Aucune corrélation n’est observée.

      

      

      

      

      

      

      

      

      

      

       2.1.3. Formuler des objectifs conformes aux finalités de la V.S.P.

      
formulation d’objectifs conformes aux finalités de la VSP
eau prion obésité score
implication sociale 0149 -0,037 -0,233 0,162
implication politique 0,251 0,212 -0,152 0,266
implication religieuse 0,063 0,204 0,045 0,096
valeurs -0,104 0,017 -0,096
implication émotionnelle 0,102 -0,302 -0,103 0,065
implication déontologique 0,318 -0,116 0,068 0,351
implication cognitive 0,296 0,054 -0,34 0,248
total des implications 0,337 0,069 -0,173 0,347
statut 0,088 -0,245 0,224 0,198
score d’ancienneté 0,224 0,14 0,266 0,228
ens.t EFF 0,274 0,038 0,214 0,196
formation ini. prof. 0,019 0,008 -0,025 0,115

      

      

      Tableau 3.49 :. corrélation entre l’implication personnelle du professeur dans sa vie sociale et professionnelle et la formulation d’objectifs conformes aux finalités de la Vie Sociale et Professionnelle

      

      

      Globalement on constate une corrélation entre la formulation d’objectifs conformes aux finalités de la VSP et la totalité des implications dans la vie sociale et professionnelle(0.347). D’autre part, la formulation d’objectifs conformes aux finalités de la VSP est également corrélée avec la réflexion menée sur la mission du professeur du secondaire (implication déontologique (0.351)).

      

      Ces corrélations sont aussi observables dans le cadre des séances traitant de l’eau de consommation (0.337 pour la totalité des implications et 0.318 pour l’implication déontologique).

      

      Les professeurs cherchant à actualiser et à approfondir les connaissances de leur champ disciplinaire ont semble-t-il plus de facilité à formuler des objectifs conformes aux finalités de la V.S.P. concernant les risques nutritionnels et donc l’éducation à l’alimentation.

      

      

       2.1.4. Mettre en adéquation situations d’apprentissage et objectifs fixés

      

      

      

      
Mettre en adéquation situations d’apprentissage et objectifs fixés
prévention responsabilité respect citoyenneté esprit critique score
implication sociale 0,134 0,219 -0,106 0,242 0.201 0,192
implication politique 0,186 0,112 0,058 0,134 -0,208 0,257
implication religieuse 0,144 0,206 0,183 0,11 -0,006 0,35
valeurs -0,064 0,101 0,057 0,12 -0,23 -0,084
implication émotionnelle 0,197 -0,15 -0,097 -0,015 0,043 0,06
implication déontologique 0,406 0,261 0,005 0,146 0,218 0,603
implication cognitive 0,109 -0,157 -0,35 0.149 -0,119 0,017
total des implications 0,378 0,217 -0,047 0,258 0,03 0,516
statut 0,318 0.166 -0,049 0,095 0,179 0,315
score d’ancienneté 0,085 0,21 -0,074 0,248 -0,047 0,186
ens.t ESF 0,069 0,115 0,206 0,19 0,15 0,047
formation ini. prof. 0,378 0,196 -0,132 0,032 0,103 0,306

      

      

      Tableau 3.50 : corrélation entre l’implication personnelle du professeur dans sa vie sociale et professionnelle et la mise en adéquation des situations d’apprentissages mises en oeuvre et les objectifs fixés.

      

      

      Si on observe une corrélation entre l’implication de l’enseignant dans sa vie sociale et professionnelle et la formulation d’objectifs conformes aux finalités de la V.S.P, celle-ci est encore plus significative avec la capacité du professeur à mettre en adéquation situations d’apprentissage et objectifs fixés (0.516). Cette capacité est plus encore corrélée avec l’implication déontologique (0.603). Il semble donc que la réflexion menée par le professeur sur sa mission éducative, et l’adhésion aux valeurs socles des institutions et l’implication dans la formation des pairs mais aussi la volonté de s’informer sur les différentes stratégies éducatives lui permettent de mettre en oeuvre dans les classes des situations d’apprentissage en adéquation avec les finalités éducatives de la discipline à savoir développer un comportement de prévention, une attitude de responsabilité et de respect, l’implication citoyenne et l’esprit critique.

      

      Développer un comportement de prévention

      

       Lors de la formation IUFM le concept de prévention qui est un concept opérant en Sciences et Techniques de l’Environnement (épreuve au concours) donne lieu à des travaux de groupe de conception de situations d’apprentissage permettant de développer ce comportement. Ainsi on observe une corrélation entre la mise en oeuvre de situations d’apprentissage permettant de développer un comportement de prévention et la formation initiale professionnelle (0.378).

      D’autre part, la mise en oeuvre de telles situations est facilitée par l’implantation du professeur dans son établissement et par la richesse de son réseau local de partenaires et de ressources. On observe une corrélation entre la mise en oeuvre de situations d’apprentissage permettant de développer un comportement de prévention et le statut (0.318). La mise en oeuvre de telles situations est ainsi liée également à l’implication personnelle du professeur dans la vie sociale et professionnelle. Celle-ci permettant de créer et d’enrichir le réseau de ressources.

      

      

      Développer une attitude de respect et de responsabilité...

      

      Il est à souligner que compte-tenu des scores faibles obtenus par les professeurs interrogés pour la mise en oeuvre de situations d’apprentissage permettant de développer : une attitude de respect (moyenne de 0.21), une attitude de responsabilité (moyenne de 0.36), l’implication citoyenne (moyenne de 0.03) et l’esprit critique (moyenne de 0.23), seule une corrélation entre l’implication cognitive et la volonté de développer une attitude de respect est observée (0.35).

      

      

      

      

       2.1.5. Diversifier les activités pédagogiques proposées

      

      

      

      
diversité
implication sociale 0,233
implication politique -0,016
implication religieuse 0,163
valeurs -0,374
implication émotionnelle 0,22
implication déontologique 0,331
implication cognitive 0,272
total des implications 0,268
statut 0,274
score d’ancienneté 0,259
ens.t ESF 0,044
formation ini. prof. 0,317

      

      

      Tableau 3.51 : corrélation entre l’implication personnelle du professeur dans sa vie sociale et professionnelle et la mise en oeuvre d’activités pédagogiques variées.

      

      

      La capacité à diversifier les activités pédagogiques proposées aux élèves afin qu’ils atteignent les objectifs fixés est liée à la réflexion que mène le professeur sur sa mission éducative mais aussi à son souci d’améliorer sa pratique afin de la rendre plus efficiente et de s’adapter au public. Elle est également liée à la réflexion menée par le professeur sur les valeurs qui le guident. Ainsi il y a corrélation entre la diversité des activités proposées et l’implication déontologique (0.331) et entre la diversité des activités proposées et l’implication éthique (0.374).

      De même, la formation initiale permettant de se confronter à différentes pratiques, à échanger lors des séances d’analyse de pratique ou lors de séminaires « mémoire » est corrélée avec le développement de cette compétence (0.317).

      

      

      

      

       2.1.6. Etre informé des différents supports de ressources documentaires et des modalités pour y accéder

      

       Aucune corrélation n’est observée. On peut s’étonner qu’il n’y ait pas de corrélation entre cette compétence et l’implication cognitive car pendant ces études et pour préparer le concours le professeur l’a très certainement développée.

      

      

      

       2.1.7. S’impliquer dans les activités extra disciplinaires, au sein du lycée professionnel

      

      Mener des projets d’éducation Santé Environnement

      

      Aucune corrélation n’est observée mais il faut ici tenir compte du peu de professeurs ayant déclaré s’investir dans ces projets éducatifs.

      

      

      S’impliquer dans son établissement

      

      
Etablissement
implication sociale 0,281
implication politique 0,063
implication religieuse 0,296
valeurs 0,071
implication émotionnelle 0,012
implication déontologique 0,28
implication cognitive 0,25
total des implications 0,313
statut 0,269
score d’ancienneté 0,246
ens.t EFS 0,228
formation ini. prof. 0,039

      

      Tableau 3.52 : corrélation entre l’implication personnelle du professeur dans sa vie sociale et professionnelle et son implication au sein de son établissement..

      On observe un lien entre l’implication du professeur dans la vie professionnelle et sociale et son implication dans son établissement d’exercice (0.313). Ainsi un professeur ayant une vie sociale active, faisant parti de club de sports ou d’associations diverses, y prenant parfois des responsabilités s’engage plus volontiers qu’un autre dans la vie de son établissement.

      

      

      


2.2.Corrélations entre les implications

      

      

      

      
implication implication implication implication implication implication implication Total des
sociale politique religieuse éthique émotionnelle déontologique cognitive implications
implication sociale 0,004 -0,02 -0,174 0,047 0,313 0,444 0,48
implication politique 0,04 0,23 -0,001 -0,146 0,307 0,158 0,459
implication religieuse -0,02 0,23 0,063 -0,15 0,253 -0,02 0,39
implication éthique -0,174 0,001 0,063 0,042 0,092 -0.102 0,269
implication émotionnelle 0,047 -0,146 -0,15 0,042 0,146 0,152 0,404 0,257
implication déontologique 0,313 0,307 0,253 0,092 0,152 0,226 0,23 0,84
implication cognitive 0,444 0,158 -0,02 -0,102 0,404 0,23 0,53
total des implications 0,48 0,459 0,39 0,269 0,257 0,84 0,53

      

      Tableau 3.53 : corrélation entre les différentes implications.

      

      

      L’implication personnelle du professeur dans la vie sociale et professionnelle est corrélée avec sa formation initiale et sa volonté d’actualiser et d’enrichir ses connaissances (0.53). Cette implication cognitive est elle même corrélée avec l’implication dans la vie sociale (0.444) et l’implication émotionnelle (0.404). En effet, les craintes exprimées sur différents sujets du champ Santé et Environnement peuvent pousser le professeur à se documenter et à se forger sa propre opinion. Plus celui-ci est impliqué dans les structures associatives mieux il pourra s’informer, fort des contacts et des liens qu’il a pu ainsi tisser. Mais l’implication personnelle du professeur dans sa vie sociale et professionnelle est très fortement corrélée à son niveau de réflexion sur la mission éducative qui lui est confiée (0.84).Le professeur qui s’intègre dans la vie sociale, qui a un idéal politique de société, qui mène une réflexion sur les valeurs qu’il défend, qui cherche à comprendre le monde qui l’entoure et son évolution et s’en donne les moyens fera de même dans sa profession. Il mènera également une réflexion sur sa mission, sur les valeurs qui la guident et cherchera à développer son identité professionnelle comme il développe son identité personnelle.

      

      

      

      

      
statut ancienneté enst. ESF form..ini. professionnelle
implication sociale 0,118 0,021 -0,208 0,087
implication politique 0,195 0,097 0,017 0,071
implication religieuse 0,079 -0,073 -0,231 0,203
implication éthique -0,06 -0,276 -0,045 0,09
implication émotionnelle 0,253 -0,021 -0,133 0,275
implication déontologique 0,331 -0,0176 -0,136 0,352
implication cognitive 0,17 -0,032 -0,203 -0,015
total des implications 0,319 -0,105 -0,235 0,357

      

      Tableau 3.54 : corrélation entre les différentes implications et les variables concurrentes.

      

      

      L’implication déontologique est elle même corrélée au statut (0.331) et à la formation initiale professionnelle (0.352). En effet, nous avons vu précédemment que l’IUFM était une structure au sein de laquelle la réflexion sur la mission éducative dans le champ Santé Environnement était une volonté qui s’exprimait en formation disciplinaire et que les professeurs contractuels étaient moins armés pour identifier les finalités éducatives qui leur sont confiées, les intégrer et construire leur identité professionnelle. D’autre part, le statut et la formation initiale professionnelle sont corrélées à l’implication personnelle du professeur dans sa vie sociale et professionnelle (respectivement 0.319 et 0.357). La stabilité de l’emploi et la formation professionnelle sont certainement des éléments facilitateurs pour une vie sociale et professionnelle riche et active.

      

      

      Ainsi, le questionnaire a mis en évidence, pour ce panel 2000-01 de 47 professeurs non stagiaires IUFM, une corrélation entre le score total d’engagement dans le respect des instructions officielles, c’est à dire dans l’acte éducatif dans le champ Santé Environnement et l’implication personnelle de l’enseignant dans sa vie professionnelle et sociale (0.37). De même, l’engagement du professeur du secondaire dans l’acte éducatif Santé Environnement est corrélé avec son implication déontologique (0.423). L’implication déontologique et la totalité des implications étant fortement corrélées (0.84), les différentes ressources: cognitive, émotionnelle, éthique, religieuse, politique, sociale et déontologique sont donc mobilisées par ces professeurs pour s’engager dans l’acte éducatif en Santé Environnement.

      

      Compte-tenu du fait que l’implication déontologique est corrélée au statut (0.331) et à la formation initiale professionnelle (0.352) et que 12 professeurs parmi les 59 étaient affectés à l’IUFM comme professeurs stagiaires en 2000-2001, il nous a semblé pertinent de proposer le même questionnaire aux professeurs stagiaires en 2002-2003, de manière à mesurer leur engagement dans le respect des instructions officielles à la fin de la formation et d’obtenir un panel suffisant (proche de 30) pour pouvoir mesurer les corrélations entre les différentes implications et l’engagement dans le respect des instructions officielles dans la population des professeurs stagiaires à l’IUFM.

      

      

      

      


3. Profil de 14 professeurs stagiaires

      

      

       Ces 14 professeurs stagiaires de sexe féminin ont été affectés à l’IUFM Nord Pas de Calais, centre de Villeneuve d’Ascq pour l’année scolaire 2002-2003.

      (Nous présenterons à fin de comparaison, en italique les résultat obtenus par les 59 professeurs du premier panel.)

      

      


3.1 Variables indépendantes: implication dans la vie sociale et professionnelle

       3.1.1. implication sociale

      

       57 % (contre 34 %) des professeurs interrogés ne sont pas du tout impliqués dans la vie sociale et aucun (contre 14%) n’a un score maximal. Parmi les professeurs impliqués dans la vie sociale, aucun ne l’est dans le domaine de l’environnement (association de défense de l’environnement) ni dans celui de la citoyenneté (mouvements des citoyens).

      

      

       3.1.2. implication politique

      

       Aucun des 14 professeurs (contre 3 %) n’a obtenu un score maximal ni de score nul (contre

      12 %). 14% (% identique) des professeurs interrogés déclarent se sentir proches des partis écologistes, aucun du mouvement des citoyens anti-mondialisation (contre8%).</