[:fr]

  • Lettre d’Information n°59
  • juin 2023 – Juillet 2023
  • ​ Lettre d’information bimestrielle n°59, Juillet 2023
    ​ ———————————————————————————————————

    Lettre d’information d’Universitaires Sans Frontières

    Dans ce numéro, on trouvera surtout un petit dossier relatif à l’usage de l’intelligence artificielle et notamment de ChatGPT dans l’enseignement supérieur. Tout d’abord, le Prof. Alain Mille donnera des indications sur le fonctionnement de ces outils. Puis Dr. Silvestri de l’Université du Kentucky présentera ses expérimentations pour la rédaction scientifique, ses doutes et les défis. Enfin, une organisation suisse montera comment, par l’analyse du style, on peut détecter les passages rédigés avec de tels outils. Tous poseront les problèmes de la fraude et d’un nouveau type de plagiat.

    Ce dossier sera précédé par un article montrant comme USF a été un catalyseur en Côte d’Ivoire par la création d’une licence professionnelle en traitement de l’eau et gestion des déchets. Et suivi par une recherche de répétiteurs en Nouvelle Calédonie SVT, Math et Physique-Chimie.

    Souhaitant bonne lecture.

    Prof. Robert Laurini, directeur de publication.
    ________________________________________________________________________________
    Côte d’Ivoire : les entreprises collaborent avec l’IUA et USF pour une licence professionnelle en traitement de l’eau et gestion des déchets1

    La Côte d’Ivoire s’est engagée dans la réalisation des Objectifs de développement durable (ODD) définis en 2015. L’ODD 6 vise à assurer l’accès de tous à l’eau potable et à l’assainissement, ainsi qu’à garantir une gestion durable des ressources en eau. Le pays a pris des engagements importants pour atteindre cet objectif. Ceci concerne l’accès à l’eau potable, l’assainissement, la gestion des ressources en eau et la gestion des déchets.

    Un des facteurs contribuant à améliorer l’accès à l’eau potable et à l’assainissement pour tous, en garantissant une gestion durable des ressources en eau et en améliorant le traitement des déchets dans le pays repose sur les actions engagées par un personnel technique formé, disponible en effectif suffisant, compétent et en mesure d’agir auprès des opérateurs privés, publics, et dans le cadre des ONG.

    Les échanges ont été menés avec le Dr N’GUESSAN Kouamé André – Directeur de la Planification et de la mobilisation des financements ONAD
    Les techniciens en traitement de l’eau et gestion des déchets peuvent apporter une contribution essentielle pour améliorer l’accès à une eau potable de qualité et pour réduire les risques de pollution et de maladies liées à la gestion des déchets en Côte d’Ivoire.

    Dans ce contexte, Universitaires sans Frontières collabore avec l’Institut Universitaire d’Abidjan (IUA) pour identifier, avec les opérateurs engagés dans ce secteur, quelles formes de collaborations peuvent être mises en place. Ceci doit permettre d’examiner les modalités d’engagement d’une licence professionnelle dans le domaine du traitement de l’eau et de la gestion des déchets à laquelle ils seraient étroitement associés. Ces réunions ont eu lieu avec l’ANDE (Agence Nationale De l’Environnement), l’ONAD (Office National de l’Assainissement et du Drainage), l’Agence Nationale de Gestion des déchets (ANAGED), la SODECI (Société de Distribution de l’Eau de la Côte d’Ivoire), le CIAPOL (Centre Ivoirien Antipollution) et avec l’UVICOCI (Union des Villes et Communes de Côte d’Ivoire).

    L’étude qui vient d’être menée avec les opérateurs ivoiriens montre le besoin de compétences techniques et un développement nécessaire des effectifs pour répondre aux enjeux de ce secteur. Toutes les structures rencontrées sont disposées à engager des collaborations avec l’IUA pour faciliter la formation et l’intégration professionnelle des étudiants qui seront formés dans le cadre de la licence professionnelle « Biologie – traitement de l’eau et gestion des déchets »

    Pour de plus amples renseignements, contacter le Professeur Xavier Alphaize .
    _____________________________________
    ChatGPT : le pire et le meilleur dans l’enseignement supérieur

    La déferlante ChatGPT vient bouleverser l’enseignement supérieur aussi bien en enseignement qu’en recherche en fournissant des résultats souvent bluffants. On pourrait dire que l’on a affaire « à un perroquet bavard doté d’une mémoire prodigieuse ».

    Personnellement, j’ai fait de petites expérimentations en posant la question « Qui est Robert Laurini ? » en plusieurs langues. En français, il est dit professeur à l’Université de ST-Etienne (faux), en anglais à l’INSA de Lyon (vrai mais le passé), italien à l’Université de Grenoble (faux), en espagnol à Paris (faux) et en allemand le lieu n’est pas précisé. A côté d’autres informations, il y avait des assertions de niveau de véracité très différente. Au total, je dirai 50% de vrai.

    Ce qui sème un doute sur la crédibilité des résultats !

    Par ailleurs, une demande relative à « Psychiatrie et littérature » a fourni un texte très correct.
    _____________________________________

    ChatGPT : quel impact sur l’activité de rédaction scientifique ?

    ChatGPT ?
    ChatGPT exploite un modèle de langage (GPT : Generative Pre-Trained Transformer) pour animer une conversation (Chat).

    GPT (nombreuses variantes) est un trans-formateur entraîné à établir des corrélations complexes entre mots, phrases en traitant des corpus de textes énormes selon des milliards de variables. Chaque élément est alors proche d’autres dans un univers textuel immense. L’apprentissage est très long et sophistiqué pour converger vers un modèle de langage (essentiellement l’anglais-américain pour l’instant). Ce modèle se concrétise par un réseau de neurones (construit par apprentissage) profonds capable de prendre un input (un texte constituant la requête) et de sortir un output (un texte généré en augmentant ou réduisant la requête à partir des relations de voisinage relatifs des centaines de milliard de variables caractérisant chaque élément).

    Si la construction du modèle est très complexe, longue et coûteuse en technologie et énergie, le modèle résultant est un réseau de neurones très important mais pouvant fournir quasi instantanément (sur de grosses machines malgré tout) une réponse générée à partir de la requête (appelée aussi prompt).

    Le texte généré est donc construit à partir de la requête en l’augmentant ou le réduisant selon les contraintes indiquées : nombre de mots maximum par exemple.

    Les différentes versions de GPT (et de ses concurrents) voient le nombre de variables augmenter pour plus de finesse du calcul de proximité conditionnelle des éléments d’un texte, en général, ou plus exactement tel que calculée à partir des textes sélectionnés pour l’apprentissage. Plus de 500 milliards de variables pour les dernières versions.

    Le fonctionnement de GPT est déjà très performant, mais le modèle de langage génère des textes sans avis sur leur contenu. Chaque élément de texte généré est le résultat de calculs multivariés sans aucune possibilité de donner du sens à ce qui est généré. Rapidement, des requêtes sur des sujets sensibles (sexualité, criminalité, sécurité, armes de guerre, …) génèrent des textes problématiques qui peuvent aider n’importe quelle activité et reprenant les biais d’apprentissage (culture occidentale, racisme, patriarcat, …) liés aux corpus de textes exploités et en particulier les textes issus des productions textuelles sur le Web.

    Instruct GPT
    Pour réduire ces problèmes, un processus de contrôle de l’usage du modèle produit a été imaginé. Il s’agit d’un apprentissage supervisé qui part d’un ensemble de requêtes étiquetées (comme inappropriées) puis en les appariant avec des requêtes faites sur GPT-3, et étiquetant ces requêtes comme problématiques si elles sont proches des requêtes étiquetées inappropriées. L’appariement se fait par apprentissages supervisé avec 100 fois moins de variables, mais les auteurs considèrent que l’avis d’InstructGPT permet de réduire de manière très significative les générations de textes inappropriés. Les auteurs précisent qu’ils détectent ainsi les intentions de l’utilisateur en permettant de filtrer les intentions non acceptables.

    Chat(GPT) : Il s’agit d’une application de type conversation intégrant plusieurs modules :
    • Une interface (minimale) pour permettre de saisir le prompt et d’afficher le texte généré. Les textes, quels que soient la langue utilisée, sont traduits en américain avec un module de traduction.
    • Sans doute, un analyseur du prompt (en américain) pour dissocier les parties du texte de la requête relevant de contraintes (taille de la réponse par exemple) et le texte qui servira de requête pour GPT.
    • Un module de détection de requête problématique (Instruct GPT) qui va renvoyer à l’utilisateur un texte générique expliquant qu’il n’est pas possible de répondre à cette requête.
    • Le modèle GPT qui va être itérativement sollicité jusqu’à arriver aux contraintes du nombre de mots attendus. Toutefois, la méthode permettant de résumer un texte n’est pas documentée. On peut imaginer plusieurs méthodes, mais sans en être sûr. Le résultat d’un résumé semble beaucoup moins fiable que la génération. De la même façon, la méthode pour traduire n’est pas connue mais reste une génération et donc exige un corpus dans la langue cible.

    Alors, peut-on générer un article scientifique valide à partir d’un texte de quelques lignes ?
    Oui, bien sûr, ChatGPT (ou ses concurrents) va générer un texte qui va avoir toutes les formes convenables d’un article scientifique, voire d’une thèse complète. Ce n’est toutefois pas encore le cas, car la longueur d’un texte généré est e à une taille bien inférieure à celui d’une thèse.

    La question des références bibliographiques va sans doute poser problème, il faudra les vérifier soigneusement car, comme le reste, elles sont générées, sauf si elles sont suffisamment représentées dans le corpus pour être considéré comme des éléments très proches du texte qui les cite.

    Les généralités sur l’état de l’art seront sans doute correctes si le domaine est bien représenté dans la base de textes d’apprentissage et si le mode d’expression d’une communauté est aussi bien représenté, mais nécessite de piloter les requêtes de manière très soigneuse et de vérifier la validité des réponses.

    Des expérimentations d’écritures scientifiques ont été faites et elles ne sont évidemment pas concluantes. On peut utiliser différents outils d’IA pour faciliter telle ou telle tâche exigée dans une thèse, mais la rédaction de la thèse… non2.

    Pour de plus amples renseignements, contacter le Professeur Alain Mille .
    _____________________________________
    ChatGPT pour la rédaction scientifique : Explorer le potentiel et les défis

    ChatGPT, et en général les technologies assistées par l’IA, ont récemment été au centre de l’attention du public et du débat. La capacité de ces outils à rédiger des textes cohérents de style humain a impressionné beaucoup de gens à l’intérieur et à l’extérieur de l’informatique, et laisse beaucoup spéculer que maintenant les ordinateurs peuvent « penser » ou bientôt remplacer les humains.

    En conséquence, nous avons vu plusieurs articles, vidéos et tutoriels soutenant l’utilisation de ChatGPT dans une variété de tâches. Il s’agit notamment de donner des conseils financiers, de fournir des idées de livres, de rédiger des poèmes, de résumer des documents, etc. Sont effectivement impressionnantes la capacité et l’adaptabilité de cet outil en fournissant du contenu sur pratiquement n’importe quel sujet.

    Inévitablement, les compétences de ChatGPT ont attiré l’attention de la communauté scientifique pour sa capacité à aider potentiellement la rédaction d’articles scientifiques. J’ai personnellement testé la capacité de ChatGPT en écrivant un résumé et une section sur les travaux connexes d’un document, avec des résultats mitigés.

    ChatGPT peut-il rédiger un résumé et une section relative aux travaux connexes ?

    J’ai demandé à ChatGPT d’écrire un résumé d’un article scientifique, en moins de 200 mots. Le sujet du document est une approche de tomographie en réseau pour la surveillance du trafic dans les villes intelligentes. ChatGPT a pris son temps, et finalement retourné un résumé de 196 mots. Au début, le résultat était impressionnant. Après avoir examiné de nombreuses premières ébauches de documents d’étudiants au cours de ma carrière, je peux dire que le résultat était certainement au-dessus de la moyenne. Plus précisément, non seulement l’anglais était impeccable, mais le résumé avait une bonne structure, à partir de la « vue d’ensemble », des limites des approches actuelles, de la méthode proposée et du résumé des résultats. Cependant, à des qualités plus élevées de l’écriture, quelques limitations sont apparues. À titre d’exemple, la motivation fournie pour la diffusion des villes intelligentes (c.-à-d. leur capacité à intégrer des technologies de pointe pour une gestion efficace du trafic) semblait très artificielle et peu convaincante. En outre, ChatGPT aurait pu mieux gérer le réglage et la livraison des attentes du lecteur. Néanmoins, je dois admettre que c’est un aspect difficile de l’écriture où de nombreux étudiants ont également du mal.

    Plus intéressant, cependant, est le résultat pour une section relative aux travaux connexes. Ici, j’ai demandé à ChatGPT de rédiger une section « Related Works » d’un article sur l’utilisation du cadre de conservation de l’énergie basé la théorie des enchères inversées et l’apprentissage automatique. ChatGPT a mis un certain temps à produire le texte, et il est venu avec une section de seulement cinq références, ceci étant clairement insuffisant pour tout document publié de nos jours, en particulier sur un sujet bien étudié comme celui que j’ai demandé. La section était encore bien structurée. La section a commencé par une vue d’ensemble du problème, puis a analysé plusieurs orientations de recherche pertinentes dans la littérature, comme les compteurs intelligents, la réponse à la demande, la théorie des enchères inversées et l’apprentissage automatique pour les systèmes énergétiques, etc. Pour chacun de ces axes de recherche, il a fourni un court paragraphe traitant des limites de cette recherche et motivant la nécessité du document actuel.

    Encore une fois, à un niveau élevé, ChatGPT a produit une section bien structurée, avec peu de citations, mais globalement acceptable. Le problème, cependant, commence quand nous regardons le contenu plus en détail. Tout d’abord, certains sujets tels que la réponse à la demande, qui fait l’objet d’une enquête depuis plus de vingt ans, ont été abordés avec une seule citation. Deuxièmement, les limites de la recherche actuelle ne sont pas exactes.

    Plus important encore, les discussions sur le contenu de certains documents existants semblaient très peu convaincantes. J’ai décidé d’aller voir ces papiers moi-même. À mon grand étonnement, j’ai découvert que plusieurs de ces documents (les trois mis en évidence dans l’image) n’existaient pas. ChatGPT a entièrement inventé ces citations, et par conséquent, aussi le contenu des documents qu’il a cités. Les journaux sont réels, mais les documents ne sont pas. Plus inquiétant encore, en regardant certains des auteurs de ces citations inexistantes, les auteurs existent effectivement, et même travaillé sur ces sujets. Cependant, ils n’ont jamais publié de tels documents.

    Défis pour nos systèmes de publications scientifiques

    Après avoir été rédacteur en chef de plusieurs revues scientifiques, président du programme technique de plusieurs conférences et membre du Comité du programme technique (CPT) de plus d’une centaine de conférences, J’ai plusieurs préoccupations au sujet de l’implication d’outils comme ChatGPT dans notre système d’édition scientifique. Il est bien connu que le domaine de l’informatique produit un nombre impressionnant de documents. Il n’est pas rare que des conférences reçoivent des centaines d’articles soumis, et même des milliers pour de grandes conférences comme IEEE GLOBECOM ou IEEE ICC. Inévitablement, l’attribution des documents aux membres de PTC est imparfaite, et de nombreux documents sont attribués à des examinateurs qui n’ont qu’une connaissance limitée du sujet. De plus, il n’est pas rare que les évaluateurs reçoivent plusieurs documents à examiner, dont bon nombre sont délégués à d’autres. Je crains que, dans ces circonstances, il ne soit facile de publier des articles partiellement générés par ChatGPT, contenant toutes les inexactitudes décrites précédemment. Les examinateurs sont inévitablement trop de travail pour vérifier soigneusement si certaines citations n’existent pas ou si le contenu d’un article cité correspond réellement à la description fournie.

    À l’heure actuelle, des sociétés savantes comme l’ACM, l’IEEE et Elsevier fournissent des lignes directrices pour l’utilisation d’outils d’IA dans la rédaction de documents. Cela comprend la surveillance humaine obligatoire de tout contenu généré par l’IA, ainsi que la divulgation que ces outils ont été utilisés. En outre, les outils d’IA ne peuvent pas être répertoriés comme auteurs et ne peuvent pas être cités pour appuyer les déclarations faites dans le document. Le défaut de se conformer entraînerait l’étiquetage du papier comme plagiat. Bien que ces règles de haut niveau soient sensées, il est difficile de voir comment elles seront appliquées dans la pratique. Actuellement, nous ne sommes pas en mesure de distinguer le texte généré par l’IA du texte généré par l’humain. Les outils éditoriaux comme EDAS, HotCRP ou Manuscript Central fourniront très probablement à l’avenir, en plus du « score de similarité » actuellement disponible, un « score généré par l’IA ». Cependant, il n’est pas clair ce que les rédacteurs et les examinateurs devraient faire une fois que l’utilisation des outils d’IA est soupçonnée ou même déclarée. De plus, avec la diffusion malheureuse de conférences et de revues prédatrices, je ne serais pas surpris que des articles presque entièrement générés par les outils d’IA soient acceptés pour publication.

    Défis pour nos étudiants

    Parmi les plus grands dangers de ces technologies figure l’impact sur les résultats d’apprentissage de nos étudiants, et donc sur la future génération de scientifiques et de professionnels en général. J’ai analysé le contenu généré par ChatGPT du point de vue d’un scientifique avec des décennies d’expérience et près d’une centaine d’articles publiés. Cependant, un étudiant qui ne fait que commencer verrait inévitablement ChatGPT avec des yeux différents. De leur point de vue, il ressemblerait à un outil qui peut écrire mieux et avec un minimum d’effort. Les conseillers seront très probablement heureux de voir une amélioration dans la rédaction des étudiants, en investissant moins de temps dans la révision et la rétroaction. Par conséquent, je crains que les étudiants, et en particulier les doctorants, n’apprennent pas à écrire et à communiquer efficacement leurs découvertes scientifiques au moyen d’articles scientifiques. Je crois que c’est une compétence importante que nous devrions préserver et enseigner à nos étudiants.

    La perspective semble encore pire lorsque nous nous concentrons sur les étudiants de premier cycle. Combien d’étudiants utiliseront et utilisent ChatGPT pour générer auto-matiquement des réponses aux devoirs et aux devoirs ? Ces outils offrent la possibilité d’obtenir de bonnes notes sans même avoir besoin de lire les réponses fournies.

    Une perspective différente : une autre calculatrice ?

    Il y a une chance que dans 20 ans, je regarde cette lettre et pense que j’ai complètement manqué de vision de l’avenir. J’ai discuté de mes préoccupations avec d’autres scientifiques et, bien que beaucoup partagent mes idées, certaines ont fourni des angles et un parallélisme avec d’autres avancées révolutionnaires dans le passé.

    Un parallélisme intéressant peut être établi avec l’invention des calculatrices. À cette époque, beaucoup pensaient que les étudiants doivent avoir la capacité d’effectuer des opérations arithmétiques relativement complexes par eux-mêmes. Les calculatrices étaient une façon d’automatiser une compétence importante, qui sera à jamais perdue, avec des répercussions fondamentales. Je pense qu’aujourd’hui, la plupart d’entre nous rions de ces préoccupations, car personne ne s’attendrait à ce qu’un étudiant, et même un étudiant au doctorat, puisse faire des calculs complexes.

    Par conséquent, dans de nombreuses années, nous pourrions considérer la rédaction d’articles comme une compétence que nous n’apprécions plus et déléguer complètement cette tâche aux outils d’IA. Évidemment, les calculatrices ne font pas d’erreurs et ne mentent pas, contrairement à ChatGPT. Néanmoins, ces outils ne sont qu’à leurs débuts, il est raisonnable de supposer que dans les prochaines années, nous serons en mesure de voir de nouvelles versions améliorées qui sont en mesure de fournir un contenu fiable. Par conséquent, si un outil d’intelligence artificielle pouvait fournir une représentation bien écrite, correcte et fiable de nos découvertes scientifiques et, essentiellement, rédiger un document avec un minimum de surveillance humaine, devrions-nous encore nous inquiéter de la rédaction scientifique comme compétence dont nos étudiants ont besoin ?

    À propos de l’auteur :
    Simone Silvestri, PhD
    Associate Professor and Director of Graduate Studies, Department of Computer Science,
    University of Kentucky, Web: http://silvestri.engr.uky.edu/ YouTube: https://www.youtube.com/@csmentor5482.
    _____________________________________
    Détecter par stylométrie la fraude académique utilisant ChatGPT

    Cet article est destiné aux enseignants universitaires, afin de les rassurer que des stratégies de contrôle de l’outil ChatGPT existent. Leur rôle est de prévenir les risques de son l’utilisation : textes plausibles, mais sans fondement, et susceptibles d’être détectés comme tels. Afin de soulever les enjeux réglementaires, voire juridiques, de la rédaction par ChatGPT, l’article se focalise d’abord sur son fonctionnement pour déterminer les contraintes de la rédaction ChatGPT et les exploiter, ensuite, dans les deux solutions stylométriques de détection de cette rédaction de ChatGPT indépendantes des modèles de langage.

    ChatGPT est un outil utile pour la rédaction professionnelle (pour esquisser un texte ou résumer un document). Bien utilisé, il est un excellent outil de recherche. Il peut écrire tout ou partie d’un document par sa capacité de rédaction. Dans un cadre d’examen ou d’évaluation par certification, il peut être utilisé de façon abusive comme un ghostwriter, un écrivain fantôme. Mais, ChatGPT peut servir à la fraude. Ainsi, le problème d’un texte sans source, au ton encyclopédique pas forcément plausible, peut conduire à des hallucinations en décalage avec la réalité.

    ChatGPT échappe aux détections de plagiat. Or, le besoin de détecteurs de rédaction de ChatGPT devient important. Les détecteurs aujourd’hui disponibles sont développés à partir des modèles de langage qui ont justement servi à son développement. Les détecteurs de textes IA peuvent donc être manipulés par les fournisseurs de rédaction IA pour rendre les textes IA non détectables.

    Deux solutions de détection indépendantes des modèles de langage de ChatGPT sont proposées dans cet article afin d’être garantes de l’intégrité. Elles ont été développées dans le cadre de l’entreprise OrphAnalytics à laquelle sont rattachés les auteurs de cet article.

    1/ Nous avons développé un outil de détection de fraude capable de mettre en évidence du ghostwriting, c’est-à-dire du texte écrit par une personne autre que le candidat. Cet outil s’avère capable de détecter la rédaction par ChatGPT de tout ou partie d’un document certifiant, car avec ces outils de stylométrie, l’écriture de ChatGPT se comporte comme celle d’un ghostwriter. Ces analyses de comparaison de style permettent de mesurer si le signataire d’un document est le réel rédacteur de ce document.
    2/ Une approche de mesure de richesse de vocabulaire permet de s’assurer de façon crédible si un texte a été rédigé par un agent conversationnel comme ChatGPT, car une intelligence artificielle écrit avec moins de richesse de vocabulaire qu’un être humain. Les textes IA sont marqués par des répétitions.

    Afin de répondre aux enjeux sociétaux, tels que la fraude à large échelle ou la tentation d’utiliser ChatGPT comme une aide aux examens ou à l’écriture des documents certifiants, l’article s’attache aux besoins essentiels de détecter pour réguler, et non pas pour sanctionner. Puisque la détection stylométrique de ChatGPT est indépendante des modèles de langage et de la langue des textes, nous pensons que notre contribution est susceptible d’être garante du respect des bonnes pratiques.

    Pour appréhender la révolution IA avec un prisme positif, constatons qu’encadrés, les étudiants peuvent apprendre différemment en utilisant ce nouvel outil de recherche. L’usage contrôlé de ChatGPT devrait réduire sensiblement le risque de perte d’innovation dans les institutions académiques.

    Article publié (avec autorisation) dans Les Cahiers méthodologiques de l’IRAFPA3, Vol. 1, N°1, juin 2023. Claude-Alain Roten, Serge Nicollerat, Lionel Pousaz, Guy Genilloud, OrphAnalytics4 (Suisse). Contacter Claude-Alain Roten claudealainroten@proton.me.
    ____________________________________
    Appel à candidatures pour mission 2024 au « JUVENAT » en Nouvelle Calédonie (Nouméa)

    L’Association Jules Garnier pour un Juvénat Lycéen (A.J.G.J) nous sollicite pour trouver des répétiteurs disponibles pour l’année 2024. Cette mission, si elle est très utile pour les jeunes kanaks est aussi gratifiante pour les répétiteurs mais reste « atypique » par son éloignement et par sa durée : 9 mois.

    La demande porte sur 10 postes de répétiteurs dans 8 disciplines : 2 en Français, 2 en mathématiques, 1 en Anglais, 1 en S.V.T, 1 en S.E.S, 1 en Physique-Chimie, 1 en Histoire-Géo et 1 en Philosophie. 7 candidats du GREF et d’AGIR ont déjà postulé mais il manque toujours des candidatures dans 3 disciplines : SVT, Math et Physique-Chimie.

    Cette mission correspond à la fiche catalogue B 501-05

    La mission se déroulera environ de fin février à la mi-novembre 2024, ce qui correspond l’année scolaire en Nouvelle Calédonie.

    Objectifs et enjeux de l’action :

    Faciliter l’accès à l’enseignement supérieur de jeunes calédoniens en vue de susciter l’émergence de cadres kanaks locaux dont la Calédonie a besoin. Cette action s’intègre dans la poursuite de la politique de rééquilibrage socio–culturel inscrite dans les accords de Nouméa.

    Public concerné :

    Environ 70 lycéens (répartis en Secondes, Premières et Terminales) originaires en majorité des Provinces des Iles et du Nord. Les élèves sont essentiellement mélanésiens, en sections d’enseignement général L, E.S et S en majorité. La mission consiste en du soutien scolaire auprès de ces lycéens.

    Pour tous renseignements et candidatures contacter Marie-Ange MORELLE (C.P Nouvelle Calédonie) par mail (mamorelle@gmail.com) ou téléphone (06 70 49 11 14).

    Le Juvénat souhaite examiner les candidatures le plus tôt possible et assure le transport et l’hébergement. 
    _____________________________________
    [:]