Archives

28 novembre 2009 : Symposium 2009

14h30 : Christoph Roessel, Président SPS, IBM Zürich Research Laboratory : « La technologie CMOS: enjeux, défis et perspectives » Au cours des récentes années de nombreux nouveaux matériaux ont été introduits dans le processus de fabrication de composants CMOS (Complementary Metal Oxide Semiconductors) pour permettre la réduction constante de leur dimension et l’augmentation de leur performance (loi de Moore). La ‘roadmap’ technologique (ITRS) indique les innovations et défis formidables que l’industrie de la microélectronique doit surmonter à chaque étape de développement des transistors (node). Un des grands succès récents a été l’introduction au niveau du node 45nm, de fines couches isolante à haute permittivité (high-k) en remplacement du SiO2 et de métaux en remplacement du poly-Si, dans l’empilement de la grille. Toutefois les prochaines générations de transistors de dimensions nanométriques pousseront les limites du possible à l’extrême avec des solutions au-delà de la technologie CMOS. Un survol de cette évolution récente sera présenté. 15h30 : Pause-café. 16h00 : Thierry Bernhard : Présentation du prix Nobel de physique 2009 : « Fibre optique & CCD » 16h30 : Yannick Stebler, laboratoire de Topométrie de l’ EPFL : « Les Technologies de Navigation Inertielle Augmentée : Application en Cartographie Aéroportée. » La navigation inertielle dépend des lois de la mécanique classique formulée par Sir Isaac Newton. Elle peut être définie comme le processus qui permet de déterminer la position d’un mobile grâce à des observations fournies par des accéléromètres et des gyroscopes montés dans des unités inertielles. Contrairement à beaucoup d’autres types de systèmes de navigation tels que le GPS, les systèmes inertiels sont complètement autonomes de toute information externe (signaux externes, mesures sur le mobile,…). En revanche, les problèmes d’erreurs (dérive, bruit, biais,...) affectant les capteurs ainsi que la nécessité de connaître l’état initial du mobile compliquent énormément l’utilisation de tels systèmes. Pour ces raisons, d’autres types de capteurs additionnels sont intégrés dans le processus afin de contrer les faiblesses des capteurs inertiels. Le but de la présentation est d’exposer les enjeux de l’utilisation de systèmes inertiels augmentés pour des applications à très haute exigence en termes de précision et fiabilité. Les méthodes les plus récentes utilisées pour assister les capteurs inertiels afin d’obtenir une trajectoire du mobile aussi précise que possible sont illustrées grâce à leur application dans les systèmes de cartographie aéroporté basés sur des capteurs LiDAR. Ces derniers balaient le terrain survolé pour en fournir une carte en trois dimensions dans un système de référence local voulu (par ex. le système de référence suisse). Finalement, les enjeux liés à la miniaturisation des unités inertielles qui constituent les domaines de recherche actuels dans le domaine des techniques de navigation sont brièvement exposés. 17h00 : Assemblée générale : 18h00 : Apéritif. 19h00 : Souper au café Udrisard, Rue du Rhône 21, 1950 Sion

04 juillet 2009 : Visite du PSI

08h00 : Départ en train de Sion/Sierre. 12h00 : Repas au château Bottstein. 14h00 : Visite forum PSI, SLS (accélérateur source de lumière synchrotron), SINQ (source de neutrons) 17h00 : Fin de la visite. 20h35 : Arrivée à Sion/Sierre Les informations complètes seront disponible un mois avant la visite.

01 novembre 2008 : Symposium 2008

14h00 : Luc Gervais, EPFL & IBM Zürich Research Laboratory : " La Microfluidique: le futur des diagnostiques. " L'emploi de la nanotechnologie en biologie, dans les instruments biomédicaux et dans les sciences analytiques donne lieu à des opportunités inexploitées pour miniaturiser les senseurs biologiques pour les diagnostiques médicaux, la biotechnologique, la surveillance environnementale, la recherche pharmaceutique ou encore dans les sciences de la vie. Les techniques analytiques vont largement bénéficier de la miniaturisation puisque la nanotechnologie et les systèmes miniaturisés en général permettent de réduire considérablement la quantité d'échantillon nécessaire, d'augmenter les limites de détection d'analytes. Ces techniques sont également capable d'obtenir des résultats nettement plus rapidement, et pourraient mener à des technologies bio-analytiques portables et omniprésentes capable de tester à grande échelle des analytes en parallèle, il est aussi possible d'intégrer des fonctions compexes sur une seule puce. Malheureusement, le défit d'utiliser des petits volumes (<1 microlitre) de solution et la difficulté de préparer des sites de captures de haute qualité pour les analytes présentent deux limites à la miniaturisation de ces plateformes analytiques. Je présenterai notre stratégie et les concepts sous-jacents de notre travail en microfluidique, où des quantités de moins d'un microlitre d'échantillons peuvent être déplacés le long de surfaces utilisant de "simples" forces capillaires, soit séquentiellement, soit en parallèle. De telles puces microfluidiques peuvent être utilisées pour miniaturiser des tests biologiques à des niveaux sans précédents, pour diriger des microjets de liquides afin de déposer localement des protéines sur une surface, ou encore de manipuler des cellules adhérentes. Ces solutions offres plusieurs avantages sur les techniques conventionnelles pour manipuler des quantités minimes de liquide et pourraient trouver leurs applications dans la lithographie, les diagnostiques et la découverte de nouveaux médicaments. 15h00 : Pause-café. 15h30 : Dr. Nicolas Produit : Présentation du prix Nobel de physique 2008 : « Brisure spontanée de symétrie» 16h00 : François Bianco : " Augmentation de l'uniaxialité magnétique dans des films de Fe69Co31 sur du GaAs(001) " 16h30 : Dr. Catherine Pralong-Fauchère : " Walther Ritz, mathématicien et physicien valaisan oublié " 17h00 : Assemblée générale : Ordre du jour : 1. Bienvenue de la présidente 2. Rapport de l'année écoulée 3. Rapport du caissier et approbation des comptes 4. Démission et élection de nouveaux membres du comité 5. Projets pour l'année 2009 6. Divers 18h15 : Apéritif. 19h30 : Souper au " Hôtel-Restaurant " du Rhône (Best Western, rue du Scex 10, Sion)

03 octobre 2008 : Physique médicale: une spécialité médicale dédiée à l’application de la physique en médecine

Jean-Yves Rey, Réseau Santé Valais

De la théorie à la pratique, les progrès technologiques de la médecine actuelle reposent souvent sur les résultats de recherches et développements en physique médicale. De nombreux domaines, tels la vision, l’ouïe, le système cardiovasculaire, l’hémodynamique, les prothèses, l’imagerie médicale… en bénéficient chaque jour. Cependant, lorsque des phénomènes physiques sont engagés à large échelle dans des traitements, comme c’est le cas en radiothérapie pour soigner le cancer, la présence d’un physicien spécialiste en radiophysique médicale s’impose. Après un bref rappel du contexte médical et de ses enjeux, l’objectif de cet exposé est d’apporter un éclairage sur le métier de physicien médical en hôpital. En suivant les étapes d’une radiothérapie, on découvrira le rôle et les tâches du physicien pour assurer une utilisation vigilante des radiations ionisantes. Enfin le recours à des technologies d’imageries et de thérapies d’avant-garde illustrera l’apport de la recherche en physique médicale.

10 mai 2008 : Observatoire de St-Luc

Soirée d'observation astronomique à St-Luc : Lieu de la visite : Observatoire de St-Luc Date : Samedi 10 mai, rendez-vous devant le restaurant de la Poste à St-Luc à 18h30. Rendez-vous en plaine pour co-voiturage : Sion : parking de Valère à 17h40 Sierre : début de la route du val d'Anniviers à 17h55 Nous mangerons une fondue au restaurant de la Poste avant le début de la visite. Merci de vous inscrire à l'adresse comite@valaisphysique.ch en précisant à quel point de rendez-vous vous nous rejoignez (Sion, Sierre, ou St-Luc).

18 avril 2008 : J'aime bien manger et j'aime bien comprendre : la Gastronomie Moléculaire

Prof. Dr. Marc Heyraud, Université de Neuchâtel

La gastronomie est la "connaissance raisonnée de tout ce qui se rapporte à l'homme en tant qu'il se nourrit" disait Brillat-Savarin. La gastronomie moléculaire poursuit ce but en utilisant les outils de la science, en particulier la méthode scientifique, mais aussi les connaissances déjà accumulées par la chimie, la physique, la biologie et la neurologie. Qu'est ce qui fait tourner la béarnaise? Comment se forment les bulles du champagne et faut-il mettre une cuillère dans la bouteille pour que les bulles ne s’échappent pas ? Quelle est la température de cuisson idéale d'un œuf dur ? Voilà le genre de questions auxquelles la gastronomie moléculaire veut apporter des réponses. La gastronomie moléculaire s'intéresse aussi aux sensations procurées par les aliments : comment fonctionnent nos papilles et comment le cerveau en interprète-t-il les signaux ? Quelle est l'importance de la somesthésie ? En somme, qu'est-ce que le goût ? La gastronomie moléculaire est une branche particulière de la science des aliments. De l'agriculture aux comportements alimentaires en passant par la conservation des aliments et leurs propriétés nutritionnelles, l'alimentation humaine est depuis fort longtemps l'objet de recherches scientifiques. En particulier les phénomènes liés à la cuisson ou aux autres modes de préparation sont étudiés par de nombreuses institutions scientifiques. Mais l'accent est mis essentiellement sur les procédés industriels. Or c'est la préparation artisanale, qu'elle soit professionnelle ou domestique, qui est au centre des préoccupations de la gastronomie moléculaire, et cela fait son originalité. En effet la gastronomie moléculaire "accompagne le particulier en cuisine, jusque dans son assiette" en le faisant profiter des connaissances acquises, entre autres, par la science des aliments. Car derrière chaque phénomène culinaire (la cuisson par exemple) se cachent des phénomènes physico-chimiques, des histoires de molécules que chacun à son niveau peut mettre en pratique pour éviter de faire des gaffes, rattraper des gaffes, ou encore découvrir de nouvelles combinaisons qui leur ouvrent autant d'horizons gastronomiques. La conférence permettra de mettre la gastronomie moléculaire, créée dans les années 70 par Hervé This et Nicholas Kurti, en perspective avec les nombreuses incursions de scientifiques dans les cuisines depuis le XVIIIe, et soulignera les objectifs de cette science et ses applications possibles. La cuisson de l'oeuf dur, recette peu extravagante s'il en est, sera revisitée pour illustrer la démarche de la gastronomie moléculaire et son formidable potentiel. Potentiel qui sera souligné par l'étude des mousses et des émulsions, par exemple de la mayonnaise, que vous ne raterez plus jamais et dont vous serez capable d'inventer mille variantes.

08 décembre 2007 : Symposium 2007

14h00 : Prof Christophe Renner, Université de Genève : « Nanomatériaux : petites dimensions, grandes opportunités. » Les technologies de l’information se sont développées à un rythme incroyable au cours des soixante dernières années. Nos téléphones portables et autres gadgets électroniques sont infiniment plus performants que les premiers ordinateurs qui occupaient des salles entières, ne serait-ce qu’en capacité mémoire. Le moteur clef de cette évolution, explicité par la loi de Moore qui dit que le nombre de transistors par centimètre carré double tous les dix huit mois, est la miniaturisation galopante des composants électroniques. Les progrès technologiques récents ont permis le développement d’un nouvel outillage permettant de visualiser, manipuler et caractériser la matière aux échelles les plus petites, molécule par molécule, voir atome par atome. A ces échelles très réduites, le comportement de la matière change. Les propriétés classiques massives sont progressivement dominées par des effets quantiques auxquels notre quotidien nous habitue peu. La conductivité électrique, par exemple, ne varie plus continuellement en fonction de la tension appliquée selon la loi d’Ohm, mais présente un comportement discontinu inobservable dans des systèmes macroscopiques. La maîtrise des matériaux aux dimensions atomiques ouvre de nouvelles et fascinantes perspectives scientifiques et technologiques que je vais illustrer par des exemples tirés du monde biomédical et des sciences physiques. 15h00 : Pause. 15h30 : François Bianco : Présentation du prix Nobel de physique 2007, la magnétorésistance géante. 16h00 : Mathieu Ribordy, EPFL Astronomie neutrino au Pôle Sud: Le déploiement en cours du détecteur IceCube est la tentative la plus ambitieuse à ce jour pour mettre en évidence un flux de neutrinos de haute énergie d'origine extra-terrestre. Les sources supposées sont p.ex. d'une part les sursauts gamma et les noyaux de galaxie actifs et d'autre part les restes de supernovae pour les composantes extra-galactique et galactique respectivement. Poser ce regard nouveau sur les cieux en exploitant les propriétés uniques de ce messager astrophysique permettra peut-être de résoudre le mystère centenaire de l'origine des rayons cosmiques. 17h00 : Assemblée générale 18h15 : Apéritif. 19h30 : Souper

19 octobre 2007 : Le cerveau illusionniste : rien n'est plus évident que soi

Prof. Olaf Blanke, Laboratoire de neurosciences cognitives, Brain Mind Institute, Ecole polytechnique fédérale de Lausanne

Le cerveau est un formidable prestidigitateur. Ses tours de passe-passe demeurent le plus souvent inaperçus. Rien ne semble plus évident et naturel que de faire corps avec soi-même. Existe-t-il une région du cerveau plus impliquée dans le sentiment d’unité spatiale entre le corps et le soi ? Parce qu’elles la bouleversent, les expériences extracorporelles (ou OBE pour «out of-body experience») montrent que notre représentation cérébrale habituelle du soi et du corps n’ont rien d’évident. C’est le fruit de processus cérébraux complexes, qui échappent à notre attention. Lors d’une expérience OBE, les personnes ont l’impression de se désincarner, de se retourner et de voir le monde de haut, de distinguer leur corps de cette perspective en hauteur. Une personne sur vingt vit un jour ou l’autre une OBE. Les recherches neuroscientifiques sur les OBE demeurent pourtant rares. Ces expériences sont difficiles à étudier en raison de leur apparition spontanée, de leur courte durée et de leur rareté dans la vie d’un sujet sain. Les OBE se rencontrent également chez les personnes souffrant de migraine, de crises d’épilepsie ou de certaines lésions vasculaires cérébrales. Ces patients neurologiques peuvent vivre des expériences extracorporelles de manière répétitive, parfois sous forme de courtes successions. Dans cette conférence, les recherches actuelles sur les OBE seront présentées. Les hallucinations autoscopiques (vision de son double), les illusions multisensorielles (vision du raccourcissement ou du mouvement de membres, membres fantômes) ou vestibulaires (élévation, rotation) seront également abordées. Les données cliniques seront corroborées avec les résultats des recherches récentes de notre laboratoire essayant d’élucider les mécanismes cérébraux de la représentation cérébrale de soi chez les sujets sains en utilisant les techniques de neuro-imagerie et de réalité virtuelle.

07 septembre 2007 : La zététique comme pédagogie de l'esprit critique en science

Richard Monvoisin, Laboratoires Hypoxie-Physiopathologie (Grenoble 1) et Zététique (Nice-Sofia Antipolis)

Malgré un niveau d'éducation en hausse constante, les frontières de la science restent difficiles à expliquer. Débordée d'un côté par les médias, docu-fictions, scénarii accrocheurs, science-fiction, submergée d’un autre par les mélanges science-spiritualisme, la démarche scientifique est trop souvent maltraitée. Les conséquences sont manifestes : prospérité des pseudosciences, de thérapies non fondées, de réconciliations « science et croyance », et d’adhésions de type ‘paranormal’ menant parfois à de graves aliénations. Le constat est fait depuis une vingtaine d’années : l’enseignement des sciences en tant que tel prémunit peu, et seul un enseignement spécifique de l’outillage critique permet de circonscrire cette mise à mal des fondements de la science. La zététique, comme « méthode d’investigation des pseudosciences et des phénomènes réputés étranges, paranormaux », permet d’illustrer facilement les différents biais, sophismes, manipulations et erreurs de validation. Elle donne aussi l’occasion d’apprendre ce qu’est un protocole scientifique rigoureux, partant du principe que toute assertion paranormale est potentiellement testable. Elle n’a pas pour objectif d’être prescriptive, et d’enseigner ce qui faut croire ou ne pas croire : elle pointe les divers pièges dans lesquels l’esprit humain peut se fourvoyer, afin que l’individu puisse faire ensuite ses choix en toute connaissance de cause. L’objectif est d’apprendre ce qu’est la science en cernant ce qu’elle n’est pas. La zététique est en quelque sorte ce que les anglo-saxons nomment le « critical thinking », une didactique de la pensée critique.

30 juin 2007 : Visite de la centrale nucléaire de Mühleberg

Visite exceptionnelle (possibilité d’entrer dans la zone de confinement, rencontre avec le directeur de la centrale), le nombre d’inscrits est limité à 30 personnes au plus. Pourront participer les membres de la SVP de plus de 18ans. Bus : 7:00 départ Gare de Sierre 7:20 départ Gare de Sion (côté nord-est) Repas : Repas offert par les dirigeants de la centrale. Coûts : Gratuit pour les membres de la SVP et 38 Frs pour les autres personnes. N'oubliez pas de vous munir d'une pièce d'identité Pour toutes communications (079) 749 14 15

23 mars 2007 : Les trous noirs. Aux confins de la bizarrerie de l’univers.

Jacques Paul, Laboratoire Astroparticule et Cosmologie, UMR 7164 (Université Paris 7, CNRS, CEA, Observatoire de Paris)

Quand les réactions nucléaires s'éteignent au cœur des étoiles, il ne subsiste plus aucune source d’énergie pour contrebalancer l’effondrement gravitationnel du gaz dont elles sont constituées. Dans le cas des étoiles les plus massives, rien ne peut arrêter la contraction du cœur. Le champ de gravitation devient si intense qu’en deçà d’un rayon critique de quelques kilomètres, la lumière elle même ne peut plus s'échapper. Le cœur de l’étoile est devenu un trou noir. En portant un intérêt particulier aux observations spatiales menées dans les domaines des rayonnements X et gamma, je présenterai un inventaire de ces astres extrêmes de l’univers, des étoiles effondrées jusqu’aux trous noirs ultra massifs tapis au cœur des galaxies.

25 novembre 2006 : Symposium à l'EMVS (école des métiers du Valais) Symposium

Conférences prévues : L'avenir de l'électronique est-il dans le plastique ? Par Axelle Tapponnier, IBM Zurich Research Laboratory, Switzerland. Les semiconducteurs organiques font actuellement l'objet d'un important effort de recherche et développement en vue de leurs applications dans différents domaines de l'électronique, tels que les diodes électroluminescentes (OLED), transistors, senseurs et composants photovoltaiques. L'objet de cet exposé est de présenter les principales caractéristiques de ces matériaux, les origines des propriétés semiconductrices et ce qui les différencient des semiconducteurs traditionnels inorganiques. Nous exposerons ensuite le principe de fonctionnement des diodes organiques electroluminescentes. Un accent sera mis sur les divers processus physiques, en particulier le transport des porteurs de charges. Nous donnerons un aperçu des divers procédés de fabrication, qui vont permettent de réduire les coûts de production. Pour conclure nous montrerons quelques exemples d'applications de ces matériaux qui sont en train de révolutionner le monde de l'électronique. Présentation d'EMVS par Joseph Métrailler Présentation d'un projet d'apprenti automaticien de 3ème année par le responsable de la profession Caloz Christophe Présentation d'un projet d'apprenti électronicien de 3ème année par le responsable de la profession Chappot Florian Présentation d'un projet d'apprenti informaticien de 3ème année par le responsable de la profession Genolet Antoine Prix Nobel de physique 2006 Suivi de l'assemblée générale à 17:15 et d'un souper.

11 novembre 2006 : Visite de l'éolienne RhônEole

/!\ Modification d'horaire /!\ Rendez-vous à 14h45 à la centrale hydroélectrique de Lavey. Dans une première partie de cette activité, nous aurons droit à une présentation détaillée de l'éolienne (environ 45 minutes). Ensuite nous nous déplacerons sur le site pour visiter l'éolienne. Veuillez-vous inscrire par email a activites@valaisphysique.ch en précisant si vous avez un moyen de transport ou pas, ainsi qu'un numéro de téléphone où l'on peut vous joindre.

24 juin 2006 : Visite de la station de recherche de la Jungfraujoch

(1er juillet, date de réserve en cas de mauvais temps) Plus d'info sur le but notre visite www.ifjungo.ch Les incriptions sont à envoyer à l'adresse activites(at)valaisphysique.ch ou à notre adresse postale jusqu'au 14 juin 2006./!\ Nombre de places limitées /!\ Toutes les informations supplémentaires seront transmises ultérieurement aux participants.

24 février 2006 : Oh temps suspends ton vol… Une seconde de plus en 2005 !

Conférence par Daniel Gambis, Observatoire de Paris

Le 31 décembre 2005, à minuit Temps Universel, la dernière minute de l'année a duré 61 secondes. Le sablier du Temps a "bégayé" pour introduire cette seconde additionnelle. Les pendules ont été remises à l’heure et l'on a pu dormir une seconde de plus... A Sion, à cause du décalage horaire par rapport au méridien origine (+1 h), l’horloge parlante a annoncé le "Quatrième top" à 1 heure temps légal. Pourquoi introduire cette seconde additionnelle dans l'échelle de temps légale, qui en prend la décision et que cela implique-t-il pour ceux qui ont la charge de diffuser "l'heure exacte" ?

19 novembre 2005 : Symposium et assemblée générale de la SVP

14h00 – 15h00 : « La géothermie, ou comment utiliser les "chauds-froids" de la Terre sans s'enrhumer » Prof. Dr. Aurèle Parriaux, EPFL. La géothermie n'est pas nouvelle mais ses développements récents ouvrent des possibilités d'application qui la rende de plus en plus accessible, de plus en plus opérationnelle. Elle devient ainsi une composante du développement durable en matière d'énergie. L'exposé montre successivement : les bases géologiques de la géothermie les principaux concepts d'exploitation, présents et à venir (avec exemples) le potentiel de la géothermie dans la fonction "ressource multiple" du sous-sol des villes de demain. 15h05 – 15h25 : « Le Foehn, un vent tempétueux », Claude Henriod D'où vient-il ? Pourquoi est-il si chaud et sec ? Des réponses simples à ce phénomène de physique de l'atmosphère. 15h30 - 15h40 : Présentation des prix Nobel de physique 2005, Nicolas Produit Désormais, chaque année durant le symposium, un petit exposé décrira le prix Nobel de physique de l'année courante. 15h40 – 16h15 : Pause 16h15 – 16h35 : « Formation tertiaire et recherche en Valais », Stefan Bumann, Service de la formation tertiaire (administration cantonale). Vue générale de la formation tertiaire et de la recherche en Valais et de quelques actions entreprises dans le cadre de son service pour lutter contre l'exode des compétences. 16h40 - 17h00 : « Exode des compétences - Quelles solutions ? - Présentation du projet Vsynapse », Sandrine Branca, Service de l'industrie, du commerce et du travail (administration cantonale). Présentation de quelques résultats de l'étude "Rester - Partir - Revenir" de l'Observatoire valaisan de l'emploi (http://www.vs.ch/Press/DS_3/GC-2004-07-01-5713/fr/Rapport.pdf) qui mesurait l'ampleur du phénomène de l'exode des compétences des Valaisan-ne-s hautement qualifié-e-s et l'analysait en profondeur, de ses causes aux solutions possibles. Elle parlera ensuite de ce qui a été entrepris par les départements de l'économie et de l'éducation depuis la publication de l'étude en juin 2004 et terminera par le projet sur lequel ils collaborent actuellement : le projet de réseau VSynapse. 17h00 –17h30 : Discussion au sujet de l’exode des cerveaux Dès 17h30 Assemblée générale suivie de l’apéritif et du souper annuel de la société valaisanne de physique.

11 novembre 2005 : Preuves du Big Bang

Conférence par Georges Meylan

Durant le 20ième siècle, la cosmologie a progressé d'un stade philosophico-religieux à un stade de science exacte à part entière. Nous présenterons les grandes étapes des énormes progrès, tant théoriques qu'observationnels, qui ont permis le développement du paradigme du Big Bang, lequel offre actuellement l'explication la plus cohérente de l'évolution de notre Univers.

21 octobre 2005 : Changements climatiques et extrêmes climatiques

Conférence par Prof. Martin Beniston, Département de Géographie, Université de Fribourg

Les nombreuses catastrophes liées au climat (canicule 2003 en Europe ; inondations en Suisse ; sécheresse en Australie ; ouragans dans les Caraïbes, etc.) donnent l’impression que les catastrophes climatiques qui touchent de nombreuses parties du monde sont la preuve du réchauffement climatique. A voir…Pourtant, les changements climatiques représentent l’un des thèmes de préoccupation majeure de ce début du 21e siècle, du moins pour les scientifiques sinon pour le monde politique. Car si l’ampleur, et surtout la rapidité du changement, sont aussi importants que ce que laissent entrevoir les résultats des modèles de climat, les conséquences pour notre environnement naturel (ressources en eau; végétation; …) et économique (agriculture; énergie ; assurances; …) pourraient se chiffrer par milliards de francs, car ce sont avant tout les extrêmes du climat qui coûtent cher, et non pas nécessairement un changement des conditions moyennes.

23 août 2005 : Visite du prix Nobel de physique Pierre-Gilles de Gennes

Programme détaillé des activités (pdf) Inscription obligatoire sous activite@valaisphysique.ch Mercredi 24 à 10h00 : Conférence intitulée : Les tribulations des inventeurs (inscription obligatoire) Mercredi 24 à 16h30 : Visite de deux projets à la HEVs Jeudi 25 : promenade avec Pierre-Gilles de Gennes en Valais --> Rendez-vous à 10h00 à St-Luc par tout temps

10 juin 2005 : Interfaces Cérébrales: De la pensée à l’action.

Conférence par Jose del R. Millan, Senior Researcher, IDIAP Research Institute, Martigny

- CV: José del R. Millán est docteur en informatique de l’Université Polytechnique de Catalogne (Barcelone), où il fut professeur assistant. Avant de rejoindre l’IDIAP, il travailla au Centre Commun de Recherche de la Commission Européenne en Italie pendant 13 ans. Il fut également professeur invité à l’EPFL et visiting scholar à l’Université de Stanford en Californie. Le Dr. Millán est un pionnier dans le développement des interfaces cérébrales ainsi que dans la conception de robots capables d'apprendre à travers leurs propres expériences. Le prestigieux journal Science a fait référence à ses travaux parmi les chercheurs clé du monde dans le champ des interfaces cérébrales. Il a été finaliste du Prix européen Descartes en 2001 pour cette type de recherche. Récemment, il a été nommé leader de recherche de l’année 2004 par le magazine Scientific American pour ses travaux sur le contrôle mental des robots. Sa recherche sur les interfaces cérébrales a reçu une large couverture médiatique dans le monde entier. - Résumé : Depuis toujours, l’homme rêve de contrôler son monde par la seule pensée, de commander des engins à travers sa propre activité cérébrale. Aujourd’hui, ce rêve commence à devenir réalité grâce à l’effort de groupes scientifiques multidisciplinaires travaillant à l’intersection des neurosciences, de l’informatique et de l’ingénierie biomédicale. Ces dernières années, plusieurs d’entre eux ont développé les premiers prototypes d’interfaces cérébrales (IC), dont le but est de permettre à l’homme d’interagir avec un ordinateur par l’intermédiaire d’une modulation consciente de son activité cérébrale. Une IC analyse cette activité en temps réel afin d’en dériver une information utile sur l'état mental des sujets, laquelle est ensuite transformée en une action externe. Par exemple, nous avons développé ces dernières années plusieurs démonstrateurs d'IC qui permettent le contrôle d'un robot mobile similaire à une chaise roulante à travers les différentes chambres d’une maquette d’appartement ou bien la communication mentale basé sur le choix des lettres sur un clavier virtuel. La possibilité d’envoyer des commandes mentales à une machine est basée sur le fait que le cerveau codifie toutes nos capacités –motrices et cognitives– selon une distribution complexe: chaque région cérébrale participe à l’exécution de plusieurs tâches mentales et chaque tâche mentale active plusieurs régions, avec une intensité et un rythme légèrement différents. Le défi consiste à modéliser les schémas d’activation de différentes régions cérébrales associées à plusieurs tâches mentales, pour ensuite reconnaître en temps réel quelle est la tâche que le sujet est en train d’exécuter. Ceci peut permettre à une personne avec de graves handicaps physiques de contrôler des machines qui l’aident à étendre sa mobilité et à augmenter ou retrouver sa capacité de communication. Dans cette conférence nous examinerons les différentes méthodes pour développer une IC, ainsi que illustrer les principaux démonstrateurs que nous avons développés en utilisant une technique non envahissante basé sur électroencéphalogramme (EEG), à savoir l’enregistrement de l'activité électrique du cerveau à l'aide d'électrodes placées sur la surface du cuir chevelu. Même si les premiers résultats sont très encouragent, nous ne nous trouvons qu’au tout début des recherches. La conférence conclura avec un aperçu des quelques pistes de recherche que nous sommes en train d’explorer pour faciliter et améliorer l’interaction avec une machine par la seule pensée.

21 mai 2005 : Visite du CERN

 

23 mars 2005 : Les trous noirs. Aux confins de la bizarrerie de l’univers

Conférence par Jacques Paul Laboratoire Astroparticule et Cosmologie, UMR 7164 (Université Paris 7, CNRS, CEA, Observatoire de Paris)

Quand les réactions nucléaires s'éteignent au cœur des étoiles, il ne subsiste plus aucune source d’énergie pour contrebalancer l’effondrement gravitationnel du gaz dont elles sont constituées. Dans le cas des étoiles les plus massives, rien ne peut arrêter la contraction du cœur. Le champ de gravitation devient si intense qu’en deçà d’un rayon critique de quelques kilomètres, la lumière elle même ne peut plus s'échapper. Le cœur de l’étoile est devenu un trou noir. En portant un intérêt particulier aux observations spatiales menées dans les domaines des rayonnements X et gamma, je présenterai un inventaire de ces astres extrêmes de l’univers, des étoiles effondrées jusqu’aux trous noirs ultra massifs tapis au cœur des galaxies.

11 mars 2005 : Pétrole et gaz. Où ? Comment ? Combien ?

Conférence par Dr. Pierre Stalder, géologue

Les gisements de pétrole et de gaz ne peuvent exister que dans le cas bien précis où réservoir, piège, couverture et remplissage en hydrocarbures coexistent dans le temps et dans l’espace pour former une cible. Les évaluations géologiques, géophysiques et économiques, si elles s'avèrent positives, culminent dans le forage dont le résultat déterminera s'il y a lieu de poursuivre les efforts et d’établir l'existence d’un gisement économique ou d'abandonner cette cible. Bien que les méthodes actuelles de recherche soient très sophistiquées, le taux de découvertes importantes diminue continuellement depuis plusieurs années, nous rapprochant irrémédiablement de la fin de l'ère des hydrocarbures.

27 novembre 2004 : Neuvième Symposium

Programme 14h00 : Georges Meynet : Des étoiles aux atomes : l’origine des éléments chimiques. 15h00 : Pause. 15h30 : Véronique Briguet : Les skieurs de H. Zehetmayer : des flip-flops mécaniques. 15h50 : Philippe Jacquod : La mécanique quantique postmoderne. 16h20 : Raphael Schroeter, lauréat du prix SVP 2004 au meilleur travail de diplôme : Méthode de reconstruction du spectre de neutrinos pour l'expérience K2K 16h50 : Pause. 17h15 : Assemblée générale. 18h15 : Apéritif. 19h30 : Souper au Château de Villa

26 novembre 2004 : La Théorie des Cordes : Théorie Ultime ? : partie 2/2

(voir partie 1)

Cours par Dr. Philippe Page

19 novembre 2004 : La Théorie des Cordes : Théorie Ultime ? : partie 1/2

Cours par Dr. Olivier Grandjean

La théorie des cordes : une première approche pour physiciens Le but final de la physique, et des physiciens, est d'unifier les lois de la nature. Voilà un énoncé qui est deux fois empreint de réductionnisme. En effet, on aurait dû dire : le but de la physique des particules, et de ses spécialistes, est d'unifier les lois fondamentales de la physique. Quelle que soit la formulation que l'on préfère, la théorie des cordes est celle qui tente ce tour de force. Lors de cette présentation, nous survolerons les théories qui décrivent avec succès les lois fondamentales aujourd'hui, puis nous verrons pourquoi les « strings » sont à la mode, ce qu'est la théorie des cordes et quels sont les premiers problèmes qu'elle a dû affronter. Le but de l'exposé est de donner une idée de cette théorie. L'exposé sera donc descriptif et aussi peu technique que possible.

22 octobre 2004 : Supraconductivité Un nouvel état de la matière

Conférence par Prof. Dirk van der Marel Département de la Matière Condensée Université de Genève

"Quand on refroidit un métal ordinaire comme le plomb ou l'aluminium à des températures proches du zéro absolu, on observe qu'au-dessous d'une température qui dépend du matériau, la résistivité disparaît. Ce phénomène de supraconductivité a été découvert en 1911, il y a 93 ans. En 1986 George Bednorz et Alex Müller ont découvert de nouveaux matériaux contenant de l'oxyde de cuivre, qui deviennent supraconducteurs à des températures beaucoup plus élevées, éveillant l'espoir de supraconductivité à température ambiante. Même si ce rêve n'est pas encore devenu réalité, beaucoup de nouvelles propriétés de la nouvelle classe supraconductrice de cuprates ont été découvertes ces dernières années, la plus significative étant le comportement de la phase liée à l'état quantique macroscopique de ces supraconducteurs : cette phase dépend de l'impulsion des électrons, et alterne entre 0 et 180 degrés. Ceci indique que la supraconductivité des cuprates est profondément différente de la supraconductivité classique. Une nouvelle forme d'électronique est basée sur cet effet. En modifiant la stoechiométrie, on obtient des matériaux qui, même au-dessus de la température ambiante, présentent un état de la matière qui apparaît fondamentalement lié à la supraconductivité, mais où la résistivité n'est pas nulle. A basse température, les électrons s'organisent dans des ondes de charge, et dans quelques cas favorables, sont simultanément dans un état de résistance nulle. Les découvertes de la dernière décennie ont montré que le sujet de la supraconductivité recèle des trésors constitués par de nouveaux états de la matière. "

25 juin 2004 : La trace: la carte de visite du malfaiteur

Conférence par Jean-Michel Carrier Institut de police scientifique et de criminologie Université de Lausanne

« Nul ne peut agir avec l'intensité que suppose l'action criminelle sans laisser des marques multiples de son passage [...] tantôt le malfaiteur a laissé sur les lieux des marques de son activité, tantôt par une action inverse, il a emporté sur son corps ou sur ses vêtements les indices de son séjour ou de son geste ».(1) Cet énoncé définit le principe à la base de toute investigation scientifique du crime. Les « sciences forensiques », ou, étymologiquement, « sciences appartenant à la Cour de Justice », prennent alors tout leur sens. Cette conférence va traiter du travail du « forensicien » et aborder différents domaines appartenant aux sciences forensiques tels que les empreintes digitales, l'ADN et les traces retrouvées en armes à feu. (1). Locard, E. L'enquête criminelle et les méthodes scientifiques. Flammarion, Paris, 1920.

02 avril 2004 : Le soleil sur terre Une option énergétique dans le cadre d'un développement durable

Conférence par Prof. Minh Quang Tran Centre de Recherches en Physique des Plasmas (CRPP), EPFL Association EURATOM-Confédération Suisse

Bien que l'énergie soit, pour nous autres pays développés, un bien de consommation qui apparaisse comme abondant et bon marché, il est important de se rendre compte que les ressources sont limitées. Il est nécessaire de développer de nouvelles sources d'énergie compatibles avec un développement durable. La fusion des noyaux légers est la manière par laquelle le soleil produit son énergie. La maîtrise de cette réaction sur terre permettra à l'humanité d'avoir une option énergétique qui soit compatible avec un développement durable. La présentation rappellera les réaction de base de fusion. Les défis scientifiques et techniques seront décrits et l'état de la recherche évoqué. Les étapes futures, dont la plus importante et la plus immédiate est le réacteur ITER, seront évoquées en utilisant comme fil conducteur les activités suisses dans ce domaine de recherche d'une importance cruciale pour le futur énergétique de l'humanité.

25 novembre 2003 : Huitième Symposium

Prof. Aurelio Bay (EPFL) : Antimatière, du laboratoire à l'univers « P. A. M. Dirac en 1927 cherche à décrire le comportement de l'électron dans le contexte de la Mécanique Quantique et de la Relativité. Il découvre une solution "miroir" pour l'électron: c'est l'antiparticule de l'électron, que l'on nomme aujourd'hui positon. Les accélérateurs comme ceux du CERN produisent un grand nombre d'antiparticules. Les positons sont couramment utilisés en imagerie médicale (tomographie par émission de positons). Le Big Bang a probablement créé particules et antiparticules en nombre identique. Cet équilibre entre les deux espèces est depuis longtemps bouleversé, célébrant la victoire de la matière. L'asymétrie particule-antiparticule est un des sujets fascinants de la recherche en physique des particules et en cosmologie. » En lien avec ce sujet: www.emmynoether.com Mathieu Ribordy : Amanda: un téléscope à neutrinos au Pôle Sud « Au Pôle Sud se trouve un téléscope orienté vers le centre de la Terre avec pour dessein de détecter des neutrinos extra-terrestres, afin de mieux comprendre l'origine des rayons cosmiques d'énergies ultimes et les phénomènes qui prévalent à les accélérer.» Frédéric Pont : Détection des exoplanètes telluriques « Depuis 1995, plus d'une centaine de planètes ont été détectées autour d'autres étoiles, mais ce sont toutes des planètes géantes et gazeuses comparables à Jupiter. La détection de petites planètes rocheuses comme la Terre nécessite des missions spatiales ambitieuses. L'Europe est dans la course. »

21 novembre 2003 : L'univers extrême Observation de trous noirs et d'explosions d'étoiles avec le satellite européen INTEGRAL

Conférence par Nicolas Produit et Pierre Dubath (INTEGRAL Science Data Center Versoix, observatoire de Genève)

Voilà une année que le satellite européen INTEGRAL a ouvert ses yeux sensibles aux rayons gamma sur l'univers. Le ciel des rayons gamma était totalement inconnu jusque dans les années 60. Encore aujourd'hui, il reste plein de mystères et de surprises. Les seuls phénomènes qui émettent dans les longueurs d'onde gamma sont les plus violents de l'univers: trous noirs, étoiles à neutrons, explosions d'étoiles... Au moyen du satellite INTEGRAL, l'Europe est, à l'heure actuelle, la seule capable d'admirer et d'étudier en direct tous ces phénomènes violents de l'univers. La Suisse abrite, à Versoix, le centre scientifique où toutes les données du satellite convergent et sont analysées. La présentation rappellera ce que sont les rayons gamma, montrera les difficiles moyens mis en oeuvre pour les détecter et finira avec une présentation des tout premiers résultats scientifiques en direct des étoiles.

20 juin 2003 : Les 3 longues histoires qui ont façonné le paysage valaisan

Conférence par Michel Marthaler Professeur associé à l'Université de Lausanne

Au cours de l'immensité des temps géologiques, les montagnes valaisannes se sont construites en 3 longues périodes. La première, qui va durer plusieurs centaines de millions d'années (ère primaire et secondaire), est celle de la « fabrication » des roches. Nées en profondeur dans le magma, en surface dans les déserts ou au fond des océans, les roches nous racontent comment s'est façonnée la matière première des montagnes. La deuxième histoire est celle de l'édification des montagnes. Un gigantesque carambolage, due à la lente collision entre continents et océans, va permettre aux roches de se plisser et de se soulever. C'était au cours de l'ère tertiaire. La dernière histoire, plus proche de la nôtre, est celle de la sculpture par l'érosion : l'eau, le vent, les glaciers entaillent de profondes vallées, découpent les sommets, et donneront enfin au Cervin sa belle forme pyramidale. Le thème de cette conférence est extrait du livre : Le Cervin est-il africain ? Une histoire géologique entre les Alpes et notre planète. Par Michel Marthaler. Editions LEP (Loisirs et pédagogie), le Mont-sur- Lausanne, 2002.

28 février 2003 : La génétique : partie 3/3

Cours par Dr Pierre Hutter, Institut Central des Hôpitaux Valaisans (Sion) et le Prof. Laurent Roux, Université de Genève

Introduction à l'application médicale

14 février 2003 : La génétique : partie 2/3

Cours par Prof. Jean-Marc Neuhaus, Université de Neuchâtel

Introduction au génie génétique dans les plantes

31 janvier 2003 : La génétique : partie 1/3

Cours par Prof. Patrick Linder et Laurent Roux, Université de Genève

Introduction générale à la génétique et à la génétique moléculaire (génie génétique)

23 novembre 2002 : Septième Symposium

Programme de l'après-midi 14h00 : Bienvenu de la présidente. 14h15 : Grégoire Ribordy (orateur invité) : Un saut quantique en cryptographie. 15h00 : Pause café. 15h30 : Catherine Pralong : Détermination de distribution de puissance à l’intérieur de barreaux de combustible nucléaire. 15h50 : Bertrand Bellenot : Simulation et visualisation de cascades électromagnétiques avec Root. 16h10 : Lauréat 2002 du prix de la SVP au meilleur travail de diplôme : Présentation du travail primé. 17h00 : Assemblée générale. 18h15 : Apéritif. 19h00 : Souper au Château de Villa à Sierre.

11 octobre 2002 : Les glaciers alpins dans un climat global changeant

Conférence par Wilfried Haeberli Glaciology and Geomorphodynamics Group Geography Department, University of Zurich, Switzerland

Les glaciers de montagne réagissent fortement aux changements de la température atmosphérique, en raison de leur proximité du point de fusion. En fait, le rétrécissement des glaciers résultant du réchauffement climatique est d’une importance capitale non seulement comme indication principale de changement continu mais également en ce qui concerne les effets à plus grande échelle (niveau de la mer, décharge de fleuve, changement de paysage, tourisme, risques naturels). Le réseau terrestre global pour les glaciers (The Global Terrestrial Network for Glaciers, GTN-G) géré par le service mondial de surveillance des glaciers (World Glacier Monitoring Service, WGMS) est un projet pilote des programmes d'observation globaux liés au climat. Il suit une stratégie d’observation hiérarchique qui essaie de lier des études de processus détaillées avec la couverture globale par images satellite. Les glaciers des Alpes européennes sont documentés par des séries de mesures particulièrement longues et détaillées. Le 20ème siècle a connu des réductions saisissantes dans la couverture par les glaciers des secteurs froids de montagne partout dans le monde. Entre le milieu du 19ème siècle, à la fin du „Petit Age Glaciaire", et les inventaires des glaciers compilés vers les années 1970, les glaciers dans les Alpes européennes ont perdu 30 à 40% en superficie et environ 50% en volume de glace. Pendant les deux dernières décennies, les bilans des glaciers dans les Alpes européennes ont été considérablement plus négatifs que la moyenne séculaire dérivée de la comparaison avec les cartes historiques précises et avec les changements cumulatifs de la longueur des glaciers. L'analyse préliminaire des dernières informations livrées par satellite sur des secteurs de glacier dans les Alpes suisses indique une perte moyenne entre 1985 et 2000 encore plus rapide que prévu par la moyenne des scénarios pour un réchauffement atmosphérique continu. La couverture de glace a pu, en fait, avoir perdu environ 20 à 30% de son volume estimé depuis les années 70. La situation semble évoluer très rapidement et même s‘accélérer au-delà de la limite de plus grand réchauffement pendant les périodes historiques, voire même durant l'holocène, les 10‘000 années depuis la dernière période glaciaire. Avec l'accélération continue du réchauffement climatique prévue dans les scénarios réalistes d‘effet de serre pour les prochaines décennies, la moitié environ du volume des glaciers alpins existant autour de 1970 pourrait être perdue avant l'année 2025. Beaucoup de chaînes de montagne couvertes actuellement par de la glace pourraient aussi devenir exemptes de glace vers la fin du siècle. Ceci pourrait mener à de fortes dégradations dans la perception humaine des paysages de hautes montagnes et s‘accompagner de changements marqués dans le cycle de l'eau, dans la dynamique des processus de surface et dans les conditions de vie. L'exemple des risques relatifs aux glaciers illustre que les connaissances empiriques tirées de l‘Histoire perdent de plus en plus de signification et d‘applicabilité directe. Elles doivent être complétées, si ce n‘est remplacé, par des concepts transdisciplinaires de modèles spatiaux robustes et de surveillance systématique dans une échelle de hiérarchie, de résolution et de niveaux de sophistication. De ce fait, les technologies de pointe (télédétection, systèmes d'information géographiques, sondages géophysiques, modèles numériques) sont d'importance fondamentale. Les concepts et les méthodologies correspondants ont été développés dans un certain nombre de programmes de recherche financés par le gouvernement fédéral suisse depuis la catastrophe de Mattmark en 1965. De telles approches sont de plus en plus appliquées dans d'autres régions du monde : les succès de leur application, cependant, dépend de la bonne volonté des autorités politiques impliquées de se servir de leurs avantages. Papiers de vue d'ensemble : Haeberli, W. and Beniston, M. (1998): Climate change and its impacts on glaciers and permafrost in the Alps. Ambio, 27/4, 258-265. Haeberli, W., Maisch, M. and Paul, F. (2002): Mountain glaciers in global climate-related observation networks. WMO Bulletin, 51/1, 18-25. Web - info : Système d’observation global du climat : http://www.wmo.ch/web/gcos/gcoshome.html Le Service de surveillance des glaciers du monde : http://www.geo.unizh.ch/wgms/ Risques de glacier en Suisse : http://www.glacierhazards.ch/

26 avril 2002 : Électricité sans CO2 Trois piliers pour l'avenir: l'hydraulique, le nucléaire et le solaire

Conférence par Bruno Pellaud (anciennement: adjoint scientifique à l'Office fédéral de l'énergie à Berne, sous-directeur du bureau d'ingénieurs Electrowatt à Zurich, directeur général adjoint de l'Agence internationale de l'énergie atomique à Vienne)

Une économie dynamique et un environnement salubre exigent des formes d'énergies non-polluantes. La plus importante d'entre elles - l'électricité - demande des moyens de production libres de CO2 pour que les incertitudes liées au réchauffement climatique n'affectent pas le développement économique et le bien-être d'une société moderne. En Suisse, le rôle complémentaire de trois formes de production sans CO2 – l'hydroélectricité, les centrales nucléaires et le photovoltaïque solaire – mettra à l'abri notre ravitaillement en électricité d'une future réglementation fédérale qui sera sévère pour les énergies polluantes et productrices de CO2. Quel avenir pour l'électricité de nos barrages? Y-a-t-il un potentiel d'accroissement des forces hydrauliques en Valais? Grâce à sa flexibilité d'exploitation, l'hydroélectricité devrait maintenir sa position centrale dans le ravitaillement de la Suisse et elle sera un atout sur le marché européen de l'énergie de pointe, même libéralisé. Avec près de 40% de la production suisse d'électricité, les centrales nucléaires donnent une base solide – indépendante des aléas météorologiques – à notre ravitaillement national. Conçues initialement pour une durée d'exploitation de 40 ans, il semble bien que les progrès techniques permettent de les maintenir en exploitation beaucoup plus longtemps, bien après que le stockage définitif de leurs déchets aura été assuré. Parmi les nouvelles formes de production non-polluantes, un effort accru devrait permettre à l'énergie solaire voltaïque de jouer un rôle plus important en Suisse, peut-être même en Valais. D'autant plus que l'énergie éolienne - dont on parle tant - sera en fait fortement limitée par les impératifs de la protection des paysages. Ces trois piliers se complètent merveilleusement pour la couverture des besoins d'électricité, au fil des heures de la journée et au fil des variations du temps qu'il fait à travers les saisons. Chacune d'elle a sa raison d'être; les trois ensembles constituent une authentique politique énergétique pour notre pays.

25 janvier 2002 : Philosophie de la physique : partie 4/4

(voir partie 1)

Cours par Jan Lacki

18 janvier 2002 : Philosophie de la physique : partie 3/4

(voir partie 1)

Cours par Jan Lacki

07 décembre 2001 : Philosophie de la physique : partie 2/4

(voir partie 1)

Cours par Prof. Jean-Claude Pont.

30 novembre 2001 : Philosophie de la physique : partie 1/4

Cours par Prof. Jean-Claude Pont.

« Parce qu’ils sont pris par d’autres exigences, parce qu’ils les ignorent ou parce qu’ils les dénigrent, les enseignants de physique des hautes écoles passent complètement sous silence les aspects épistémologiques et philosophiques de leur discipline. Alors que tant de grands physiciens s’y sont adonnés, par inclination ou par obligation. Alors qu’ils apportent un complément indispensable à une compréhension en profondeur des concepts que manipulent les sciences. En traitant de quelques sujets emblématiques de l’histoire et de la philosophie de la physique, le cours essaiera de convaincre les participants de la pertinence de la réflexion historique et philosophique pour la connaissance de la physique. »

24 novembre 2001 : Sixième Symposium

Véronique Briguet : Le plaisir du ski carving : mode ou réalité ? « Lorsqu’une simple modification technique – en l’occurrence une modification de la forme des skis – provoque une forte revitalisation de la branche, on évoque généralement une habile stratégie de maketing. Peut-être, mais comme la mordue de ski (que je suis) y a réellement trouvé un net regain de plaisir, la physicienne s’est appliquée à en trouver les raisons. » Gilbert Morand et Michel Bonvin : bSol – un logiciel d’aide à la planification en matière d’énergétique du bâtiment « L’évolution des techniques de construction au cours des dernières décennies a été profondément modifiée essentiellement par les éléments suivants : la mise en place généralisée de vitrages aux propriétés de protection thermique élevée l’augmentation progressive des épaisseurs d’isolation thermique l’utilisation de plus en plus régulière de techniques de récupération de chaleur sur l’air extrait. En conséquence, les besoins en énergie de chauffage des locaux nouvellement construits ont diminué à un point tel, qu’ils sont parfois aujourd’hui inférieurs aux apports solaires. Il est ainsi évident qu’une planification sérieuse quant à la gestion des apports solaires (captage au travers de fenêtres bien dimensionnées munies de vitrages judicieusement choisis et stockage provisoire de la chaleur captée dans la masse du bâtiment) est essentielle et doit tout naturellement trouver place au niveau de l’avant-projet. C’est justement cet objectif d’aide à la planification en matière d’énergétique du bâtiment que se propose d’atteindre bSol, le logiciel qui est en cours de développement à la Haute Ecole Valaisanne. » Stéphane Abbet : Recherche en nanoscience : de nouvelles opportunités pour la catalyse hétérogène « Il y a plus de 150 ans, Berzélius découvrait la catalyse hétérogène. Depuis, de nombreux catalyseurs ont été développés par des successions d’essais et d’erreurs. Cependant, à l’ère de la nanotechnologie, cette approche de la catalyse est révolue. En effet, le contrôle de la matière à l’échelle nanométrique permet aujourd’hui l’élaboration de nouveaux catalyseurs : les nanocatalyseurs. Durant cet exposé, après une courte introduction sur la catalyse, je vous présenterai les différentes techniques utilisées pour fabriquer les nanocatalyseurs. Ensuite, j’exposerai les nouvelles propriétés que présentent ces catalyseurs. Enfin, je m’arrêterai brièvement sur les applications actuelles et les perspectives d’avenir de la nanocatalyse. »

01 juin 2001 : La recherche sur la dynamique des grandes avalanches

Conférence par François DUFOUR Responsable de l’Antenne ENA-Valais Institut Fédéral pour l’Etude de la Neige et des Avalanches SLF-Davos

1. Bref historique La neige, source de plaisir intense pour de nombreux skieurs, surfeurs ou randonneurs, peut aussi être cause de préoccupations et même de désespoirs pour les responsables de la sécurité de nos régions touristiques. De multiples ex-voto, datant du XVIIème siècle et tapissant nos chapelles, nous rappellent que les avalanches avaient déjà une place importante dans la vie de cette époque. Plus récemment, lors de l’hiver 1950/51, année triste s’il en est, 98 personnes périrent sous les avalanches. La Confédération décida alors d’intensifier ses efforts de recherche pour diminuer les effets dévastateurs des avalanches. L’Institut Fédéral pour l’Etude de la Neige et des Avalanches de Davos (SLF) mit tout en œuvre pour que les moyens de lutte active (ouvrages paravalanches, digues, déclenchement artificiel d’avalanches, évacuations, etc.) et passive (carte de dangers, prévisions avalanches, cours de formation, etc.) contre les avalanches soient sensiblement améliorés. Durant les mois de janvier et février 1999, une situation exceptionnelle aussi bien au niveau de la quantité de neige, plus de 5 mètres de neige fraîche, que de la répétition de conditions météorologiques désastreuses provoqua de nombreuses avalanches avec des dégâts considérables. On eut même à déplorer 17 victimes en Suisse durant le mois de février. Ce chiffre, tout en étant trop élevé, est sensiblement inférieur à celui de 1951. Il est la preuve que les efforts déployés dans le domaine de la neige et des avalanches ont porté leurs fruits. Ceci est d’autant plus vrai si l’on sait que le nombre de résidents dans l’espace alpin a été multiplié par trois depuis 1951 et que les voies de communication ont fortement augmenté durant ces dernières décennies. Le « combat » n’est cependant de loin pas terminé. Les événements de février 1999 ont mis en évidence certaines lacunes aussi bien dans le domaine de la prévention que dans celui de l’organisation des services de sécurité. Le SLF de Davos, avec son antenne valaisanne, continue ses recherches afin d’offrir aux cantons des moyens toujours plus efficaces de lutter contre les avalanches. 2. La dynamique des grandes avalanches Qu’est-ce qu’une grande avalanche ? Dans le cadre de cet article et pour simplifier, on dira qu’une grande avalanche a plus de 1000m de longueur et est plutôt dangereuses pour les agglomérations et les voies de communications. Une avalanche petite ou moyenne, entre 50 et 1000m, concerne plus spécifiquement les skieurs, surfeurs et randonneurs. Un groupe de chercheurs du SLF étudie, depuis de nombreuses années, la dynamique des grandes avalanches. Le but principal de ces études était et est de mieux connaître les processus physiques des avalanches poudreuses et coulantes. Ces nouvelles données doivent permettre d’améliorer les modèles d’avalanches existants et de développer de nouvelles méthodes numériques de simulation. Ces modèles serviront ensuite à établir plus précisément les cartes de danger, documents importants pour les plans de zones d’aménagement local, à dimensionner les ouvrages paravalanches et à vérifier les charges sur différents types d’obstacles. Comme il est évident que les avalanches sont extrêmement dangereuses, il est difficile de récolter des données précises qui les définissent. Cependant, pour le développement de modèles de bonne qualité, il est nécessaire d’avoir à disposition des données non seulement sur les zones de rupture et de dépôt (volume et densité) mais aussi sur les vitesses, les pressions et les hauteurs des avalanches. Il est donc indispensable de connaître leurs principaux paramètres physiques avant, pendant et après leur déclenchement. Ceci impose une infrastructure importante sur les sites de recherche. 3. Le site de la « Vallée de la Sionne » Afin d’étudier les grandes avalanches à l’échelle 1 :1, plusieurs sites potentiels ont été évalués dans le cadre de l’Arc Alpin et celui de la Vallée de la Sionne, dans le vallon d’Arbaz situé au-dessus de Sion, a été retenu comme étant le plus approprié .

01 juin 2001 : La solution de l'énigme des neutrinos solaires manquants

Conférence par Dr. Jacques Farine

18 novembre 2000 : Cinquième Symposium

Hervé Bourlard (orateur invité): Les technologies de l'information au 21ième siècle La croissance rapide des technologies de l'information en général (résultant d'avancées technologiques dans les domaines tels que le "home computing", les réseaux de communication, et le stockage digital de masse), ainsi que le volume et la complexité des données multimedia en particulier, présentent aujourd'hui de nouvelles opportunités à la société de demain. Dans ce contexte, le développement d'outils informatiques permettant la représentation concise, la gestion efficace, l'accès et la transmission rapide des informations multimedia est d'un intérêt tout particulier. Après avoir introduit la problèmatique générale sur base d'exemples concrets, cet exposé s'attardera un peu sur certaines des technologies clés des systèmes d'information de demain, à savoir la reconnaissance automatique de la parole, la vision par ordinateur, et les systèmes d'interaction homme-machine multimodaux. En fonction des possibilités, certains des aspects traités seront directement illustrés par l'intermédiaire de démonstrations. Mireille Crittin : Analyse par PGA (Prompt gamma-ray activation) L'analyse par PGA (Prompt Gamma-ray Activation) est une excellente technique pour déterminer la présence et la quantité des éléments dans un échantillon. Depuis octobre 1997, le nouvel instrument PGA installé à la fin d'un guide à neutrons froids de la source de neutrons à spallation, SINQ, à l'institut Paul Scherrer est opérationnel. Le système de détection est composé d'un spectromètre à suppression Compton et d'un spectromètre à paires. Une caractéristique intéressante de ce nouvel instrument PGA est la lentille à neutrons. Elle permet la cartographie multi-élémentaire et la spectroscopie d'échantillons présentant une petite section efficace de capture et/ou une petite masse. Durant les périodes de faisceau 1997 et 1998, les mesures ont été effectuées pour caractériser l'instrument PGA (bruit de fond gamma, efficacité des deux spectromètres, sensibilités analytiques et limites de détection pour plusieurs éléments, performances de la lentille à neutrons). Des analyses multi-élémentaires de standards ont aussi été exécutées. Cet exposé décrira l'instrument, ses caractéristiques et les résultats obtenus jusqu'à maintenant dans la méthodologie et la chimie analytique. Christophe Bagnoud : Petit voyage avec Alusuisse et concernant les pièces mises en forme pour l'industrie automobile. Algroup, l'une des premières sociétés suisses disparaît. La fusion entre Algroup et Alcan est en train de se réaliser. Le nouveau leader en Aluminium qui est en train de naître considère que les marchés concernant l'industrie automobile offrent d'importants potentiels. En suivant des activités de R&D du Technology Center de Chippis, nous découvrirons certains domaines stratégiques pour l'industrie Aluminium.

01 novembre 2000 : Télescope Hubble - Intervention en orbite et résultats

Conférence par Claude Nicollier

06 octobre 2000 : "On a perdu la moitié de l'univers" (Matière sombre et matière gémellaire)

Conférence par Jean-Pierre Petit Astrophysicien, directeur de recherche au CNRS

"Selon Jean-Pierre Petit, la science contemporaine – au sens de « science fondamentale » et non de « développements technologiques » - est dans une impasse depuis des décennies. Les nouveaux aspects du cosmos que l’astronomie observationnelle nous fait découvrir à grands pas sont, hélas, des questions plus que des réponses. Nul ne sait où est passée l’antimatière cosmologique, c’est-à-dire… la moitié de l’univers. On ne dispose d’aucun modèle de galaxie. On ne sait ni comment celles-ci se forment, ni pourquoi elles n’éclatent pas sous l’effet de la force centrifuge. On ne récupère que la moitié des neutrinos qui devraient normalement accompagner l’émission photonique du soleil. Les « explications » de la science contemporaine sont déconcertantes. La « désintégration du boson de Higgs » - particule hypothétique – est sensée rendre compte de l’absence d’antimatière cosmologique primordiale ; mais personne n’a mis en évidence l’existence de cette particule. En règle générale, la physique théorique s’est orientée depuis trente ans vers la « théorie des supercordes » ; mais celle-ci n’a jamais proposé la moindre expérience, ni rendu compte de la moindre observation ; une physique sans aucun contact avec le réel, en somme. La « matière sombre » est présentée comme le remède à tous les maux ; mais elle assure la cohésion des galaxies, rend compte de la structure lacunaire de l’univers, à grande échelle, et de bien d’autres choses encore… un peu comme jadis l’horreur du vide permettait d’expliquer la montée du mercure dans les baromètres. Jean-Pierre Petit, qui publie ses travaux dans des revues de haut niveau, suggère une autre interprétation : une structure gémellaire de l’univers…"

23 juin 2000 : "Imaginer l'invisible" (ou : "Que cherchent-ils au ciel, tous ces aveugles ?")

Conférence par Peter von Ballmoos, Centre d'Etude Spatiale des Rayonnements à Toulouse

``Au cours de l'histoire de l'Astronomie, notre vision de l'Univers n'a cessé d'évoluer grâce aux découvertes successives rendues possibles par l'émergence de nouvelles technologies : nous avons ainsi découvert que la Terre n'était pas au centre du système solaire, que celui-ci était loin du coeur de la Voie Lactée, et que notre Galaxie n'avait aucune place particulière dans l'Univers. Aujourd'hui, les découvertes de l'ère spatiale nous invitent à nouveau à dépasser la simple vision anthropocentrique : nous devons apprendre que nos yeux ne nous font connaître qu'une infime fraction du spectre électromagnétique. Outre la place insignifiante que nous occupons dans l'espace, et le temps limité qui nous est donné pour l'explorer, nous sommes limités à la ``cinquième dimension'' : celle des couleurs. Les développements instrumentaux de la deuxième moitié du 20ème siècle ont fait du ciel l'objectif scientifique le mieux observé sur l'étendu du spectre électromagnétique. Du domaine des ondes radio jusqu'aux rayons gamma, nous disposons aujourd'hui de plus de quarante cartographies du ciel. Cette présentation de l'astronomie de l'invisible montrera les objets célestes - planètes, étoiles, nébuleuses, galaxies - sous une nouvelle lumière et comparera également leur émission avec les ``couleurs invisibles'' des objets quotidiens qui nous entourent sur Terre.''

20 novembre 1999 : Quatrième Symposium

Prof. Dr. Philippe Aebi, Université de Fribourg (orateur invité) : La physique des surfaces et comment voir les atomes de la surface? Avant tout, la physique des surfaces est nourrie d'un rêve. Le rêve de fabriquer des surfaces avec des propriétés bien determinées. Cela va des propriétés catalytiques jusqu'à créer des couches minces de matériaux complètement nouveaux pour des applications en électronique, biologie ou optique. Mais le rêve d'un physicien ne se base pas simplement sur les applications futures mais aussi sur la curiosité de voir plus loin et plus en profondeur. D'ou le désir de voir les atomes à la surface. En même temps, cela constitue la base pour la compréhension de ce qui se passe à la surface. En voulant regarder une surface de plus en plus près, on risque de s'arrêter rapidement. Si l'on utilise un microscope optique, on ne plongera pas en-dessous des dimensions de la longueur d'onde de la lumière qui est de l'ordre du micron. Comment faire alors pour voir les atomes à la surface qui "vivent" à l'échelle de l'Angstrom? Des techniques utilisant les électrons ont été développées. Elles permettent de pénétrer dans des dimensions atomiques et de déterminer quel type d'atomes se trouve à la surface et quel est leur emplacement. Entre les atomes, est-ce le vide total? Non, au contraire, il y a des électrons. Et ce sont ces électrons que l'on "excite", non seulement pour dévoiler les atomes, mais aussi pour découvrir la structure de leur propre "organisation" qui est déterminante pour les propriétes électroniques du matériau. Pierre Beran :Problèmes physiques rencontrés en Electrolyse de l'aluminium Bien que centenaire, le procédé industriel d'électrolyse de l'aluminium reste sujet à d'intenses efforts de R&D en vue de réduire les couts de production. Olivier Zuchuat : Etude de rupture de l'enceinte de confinement des centrales nucléaires suisses dû à une explosion de vapeur durant un accident grave. L'évaluation de la possibilité d'une rupture de l'enceinte de confinement d'une des centrales nucléaires suisses lors d'un accident grave dû à une explosion de vapeur à l'intérieur de la cuve pressurisée du réacteur ainsi qu'à l'extérieur est présentée pour les quatres différents types de réacteurs que la suisse possède. La détermination de la probabilité conditionnelle de rupture de l'enceinte de confinement est basée sur différentes approches probabilistiques qui sont décrites sommairements dans cette présentation. Derek Kelly : Magnétotronique et spintronique : vers une nouvelle technologie de stockage de l'information Depuis plus de 40 ans la capacité de stockage d'information dans un volume donné n'a cessé de s'accroitre. L'amélioration de la technologie des matériaux semi-conducteurs a permis l'obtention de mémoires vives petites et rapides. L'électronique et la technologie magnétique ont abouti à la miniaturisation des calculateurs, et l'avènement de l'ordinateur personnel. Et si depuis deux ans la vitesse de croissance en densité de stockage sur mémoire vive à même accéléré grâce à la percée en nanotechnologies on peut prévoir pour 2015 environs, un arrêt de ce progrès dans la mesure où la limite physique de fonctionnement des transistors aura été atteinte. La présentation aura pour but d'intoduire l'auditeur à des études menées à l'EPFL ainsi que dans de très nombreux autre instituts et centre industriels (IBM, Honeywell, Siemens, ...) dans la course vers des mémoires haute fréquence - haute densité à support magnétique, ainsi que les aspects physique fondementaux qui lui sont liés.

29 octobre 1999 : Les arts plastiques à l'échelle du micron

Conférence par Patrik Hoffmann MER (IOA, EPFL)

Le groupe "Materials - Ablation - Deposition" (MAD, IOA, EPFL) est actif dans deux directions de l'art plastique à l'échelle micrométrique. Le maître d'enseignement et de recherche Patrik Hoffmann décrit leur travail de la manière suivante : Soit nous enlevons la matière comme des tailleurs de pierre Soit, comme des sculpteurs avec de l'argile, nous construisons des structures à partir des molécules 3-D, ceci même si le diamètre de leur structure est en-dessous de 100 nm.

01 mars 1999 : JO Athènes 2004/Sion 2006 : Pollution de l'air et développement durable

Conférence par Dr. B. Calpini,

28 novembre 1998 : Troisième Symposium

Prof. Charles E. Riva : Techniques optiques modernes dans l'évaluation de la fonction visuelle Ces dernières années ont vu un rapide développement de plusieurs techniques optiques non-invasives pour l'évaluation de la fonction du système visuel, le diagnostic et l'étude de la pathogénèse de certaines maladies oculaires comme le glaucome et les dégénérescences rétiniennes. Parmi ces techniques, mentionnons entre autres celles basées sur les propriétés optiques du laser. Exemples d'applications: a) mesure du débit sanguin dans les différents réseaux vasculaires du fond de l'oeil par laser Doppler et étude du couplage neuro-vasculaire; b) topographie du fond de l'oeil et c) biométrie et tomographie des structures oculaires. Daniele Gerion :La nanoscience: Science et technologie du présent et du futur La nanoscience et la nanotechnologie sont des domaines de recherches prioritaires dans de nombreux pays, et en Suisse en particulier. Ces domaines interdisciplinaires se situent à la frontière de la biologie, de la chimie, de la physique et de la science des matériaux. De pure recherche fondamentale, la nanoscience laisse transparaître des potentialités technologiques phénoménales. Durant cet exposé, je désire présenter quelques aspects de l'état actuel de ces recherches: quelles sont les applications actuelles, et quelles sont les perspectives d'avenir. En parallèle, j'essayerai de montrer comment la nanotechnologie et la recherche fondamentale bénéficient grandement l'une de l'autre. Gilbert Morand : Industrie et recherche ? Approche industrielle ou approche du chercheur: deux vues d'une même réalité ou deux modes de pensées contradictoires ? Les outils du chercheur aux services de l'industriel: serait-ce le premier pas vers une réconciliation ? Patrick Poscio : De la recherche à l'enseignement, et de la recherche dans l'enseignement Patrick Poscio travaille à 50 % à l'IRO et à 50 % dans l'enseignement au Collègue des Creusets. Dans un premier temps, il nous parlera du sujet cité ci-dessus. Dans un deuxième temps, un débat nous est proposé : le conférencier nous présentera un résumé de E2000, la réforme de l'enseignement en Valais et les conséquences dans le domaines des sciences de bases comme la physique. Cette partie se déroulera sous forme de discussions où chaque participant est encouragé à intervenir.

01 juillet 1998 : Le vin vu par le physicien

Conférence par Dr. Hochli Ulrich

08 mai 1998 : Les biomatériaux, des matériaux sur mesure pour la médecine et la chirurgie

Conférence par Prof. Pierre DESCOUTS, Groupe de Physique Appliquée Faculté des Sciences, Université de Genève

Une grande variété de matériaux naturels ou synthétiques sont maintenant couramment utilisés en Médecine et Chirurgie pour le traitement de maladies ou de blessures (cathéters, fils de suture, plaques, prothèses,...). Ces matériaux utilisés pour remplacer une partie d'un tissu vivant ou pour fabriquer un dispositif médical fonctionnant en contact intime avec les tissus vivants sont appelés Biomatériaux. L'utilisation clinique des biomatériaux n'a pu véritablement démarrer qu'après le développement de la chirurgie aseptique, les problèmes d'infection étant fortement exacerbés par la présence d'un corps étranger dans l'organisme. Jusqu'à la deuxième guerre mondiale cette utilisation n'a concerné que la chirurgie orthopédique avec l'introduction de plaques de fixation de fractures en acier inoxydable et alliages cobalt-chrome. Les progrès rapides de la science des matériaux au cours des dernières décennies ont permis un développement spectaculaire dans l'utilisation des biomatériaux avec l'introduction du Titane en chirurgie osseuse et surtout des plastiques en chirurgie cardio-vasculaire. La nouvelle génération des biomatériaux est constituée de matériaux manufacturés spécialement pour une application clinique donnée avec notamment des caractéristiques physico-chimiques de surface permettant d'obtenir une réponse favorable de l'organisme. L'avenir est certainement le développement du génie tissulaire où les biomatériaux ne serviront plus que de support temporaire biodégradable à des cellules de l'hôte induisant la régénération des tissus voire de l'organe lésés. Dans cet exposé, l'accent sera surtout mis sur le problème de la biocompatibilité ou de la bioréactivité des biomatériaux modernes et des développement les plus récents dans la perspective du génie tissulaire.

30 janvier 1998 : Les nouveaux domaines de la lumière

Conférence par Prof. René Dandliker

La lumière laser est une lumière plus intense qu'aucune autre car tous les photons ont notamment la même couleur et la même direction. Sous cette forme étonnante, elle est à la base d'une nouvelle optique : "L'optique moderne". L'optique classique, qui se base sur l'utilisation de sources de lumières plus traditionnelles, permet un grand nombre de mesures très précises, mais souvent longues et pénibles et surtout soumises à la dextérité de l'expérimentateur. Celui-ci aura en effet rivalisé de patience et de savoir-faire pour ajuster la source, les nombreux miroirs et lentilles, et il effectuera son observation à l'aide de son œil ou d'un appareil photographique. En optique moderne, les lasers sont devenus des sources indispensables, fournissant des faisceaux de lumière cohérente. De même, pour la détection, on dispose de photodiodes, de caméras vidéo à semi-conducteurs... Des exemples types de l'optique moderne sont les systèmes de télécommunication à fibres optiques, les lecteurs de CD et de CD-ROM et les imprimantes lasers... Un autre exemple important : Grâce aux lasers, des images à trois dimensions qui semblent avoir le même relief que l'objet réel purent être obtenues. Un hologramme est essentiellement une microstructure optique, une sorte de réseau optique, qui diffracte la lumière, permettant de produire ainsi un champ de lumière complexe. Des hologrammes, sous forme de structure en relief, garnissent aujourd'hui les cartes de crédit pour raison de sécurité. Comprendre aisément la lumière laser et comment on s'en sert pour des applications modernes, cela est possible pour tout un chacun : Monsieur Dandliker, professeur d'optique à l'Université de Neuchâtel et à l'EPFL, sait mieux que quiconque ouvrir les yeux du néophyte sur les beautés de l'optique moderne, monde fascinant peuple de photons jumeaux et indiscernables qui nous aideront à forger de nombreux progrès technologiques de demain.

20 septembre 1997 : Deuxième Symposium

Pierre Le Coultre (orateur invité) : Les rayons cosmiques et leur mystères... La découverte des rayons cosmiques a mené les physiciens d'abord vers l'étude du microcosme. Aujourd'hui c'est le macrocosme qui les fascine de plus belle. Ce sont les accélérateurs naturels, comme les noyaux actifs de galaxies, les étoiles a neutrons, ou les supernovae qui satisfont l'appétit des chercheurs en quête de sources d'énergies toujours plus élevées. Issus de ces chaudières d'enfers les rayons cosmiques sont les messagers qui parviennent jusqu'à nous, du fonds de l'univers et du fonds des temps. Philippe Jacquod : Le papillon de Hofstadter Le comportement des électrons cristallins soumis a un champ magnétique extérieur a été l'objet de très nombreuses études depuis les débuts de la mécanique quantique. En effet, la présence d'un champ magnétique brise un certain nombre de symétries (parité, invariance par renversement du temps...) et modifie de manière spectaculaire le spectre d'excitations élémentaires ainsi que les propriétés qui en dépendent, telles que la conductivité, la susceptibilité magnétique ou encore les propriétés de localisation des fonctions propres. Ceci a été mis en évidence de manière particulièrement spectaculaire par Douglas Hofstadter en 1976 : son "papillon" a structure multifractale illustrant les modifications apportées au spectre par la compétition du champ magnétique et de la périodicité du réseau dans le modèle de Harper. Eric Wuilloud : Problèmes de qualité en fonderie d'aluminium. Le procédé de fonderie sera situé par rapport à l'élaboration d'un produit en aluminium. Les facteurs critiques nuisant à la qualité durant cette étape seront décrits. L'appareillage de mesure permettant de mesurer les paramètres seront présentés. Enfin, les mesures de prévention et de corrections permettant de garantir la qualité du produit final seront expliqués. Emmanuel Bonvin : L'Observatoire de Neutrinos de Sudbury. Le projet de l'Observatoire de Neutrinos de Sudbury est présente avec une attention particulière sur les objectifs physiques et sur les aspects de réduction et de contrôle de la radiopureté. L'Observatoire espère fournir la première mesure du flux total de neutrinos solaires. La mesure simultanée du flux de neutrinos électroniques devrait apporter une contribution déterminante a la résolution du problème de neutrinos solaires.

30 mai 1997 : Quelques Thèmes en Théorie Mathématique du Chaos : Instabilité de Trajectoires, Régularité Stochastique, Universalité de Feigenbaum

Conférence par Prof. O. E. Lanford Ecole Polytechnique Fédérale de Zürich

Le Chaos Déterministe C'est un fait mathématique et physique bien établi que le futur de certains systèmes cesse d'être prédictible audelà d'un certain temps. Ce fait est notamment bien connu des météorologues pour qui les prévisions deviennent hasardeuses après quelques jours déjà. Plus étonnant est le fait que l'évolution de ces sytèmes est gouvernée par des équations bien définies qui n'admettent qu'une trajectoire unique pour une situation donnée. Cette solution n'est pas déterminable exactement, mais existe bel et bien. Dans ces systèmes dits chaotiques semblent donc cohabiter le déterminisme lié à l'existence d'une solution unique aux équations décrivant l'évolution du système et le hasard mentionné plus haut et qui rend l'évolution imprévisible. C'est cette situation paradoxale que les mathématiques et la physique désignent par chaos déterministe. L'histoire de l'étude du chaos déterministe remonte aux origines de la physique moderne. Sir Isaac Newton luimême avait remarqué la difficulté d'appréhender le mouvement sous l'action de la gravitation de trois objets ou plus ­par exemple le soleil la terre et la lune. Il faudra pourtant plus de deux siècles avant que l'on se rende compte de la nature essentielle de cette difficulté : elle n'est pas d'ordre technique, ne repose pas sur un manque de connaissances mathématiques, mais bien fondamentale. Cette difficulté provient de la structure même des équations du système comme le montra à la fin du XIX me siècle le mathématicien fran¸cais Henri Poincaré. C'est dans les années soixante que la discipline "explose''. En 1963 Edward Lorenz illustre à l'aide d'un ordinateur la complexité des trajectoires d'un système chaotique. Les trajectoires se dilatent pour mieux se contracter, s'enchevêtrent et se tortillent à un point tel que deux trajectoires voisines à un moment donné se trouvent très éloignées l'une de l'autre à un instant ultérieur. Le taux d'éloignement de deux trajectoires voisines caractérise donc le temps audelà duquel le système cesse d'être prévisible. Le système étudié par Lorenz représentait notre atmosphère. Ce travail d'importance majeure montra donc l'impossibilité de prévisions météorologiques à longue échéance : deux situations météo apparemment très proches peuvent conduire à des situations bien différentes en moins d'une semaine. Après Lorenz, de nombreux chercheurs se sont penchés sur les mécanismes qui conduisent au chaos ainsi que sur la structure bien particulière des trajectoires dans un tel système. La présence et l'importance du chaos ont été découvertes un peu partout, à des degrés d'importance divers. Les prévisions météorologiques et la dynamique céleste déjà cités montrent très certainement des signes de "chaoticité". Les battements cardiaques montrent des irrégularités chaotiques qui n'ont rien de pathologique. Les systèmes économiques semblent également être très sensibles à de petites perturbations, de même que des systèmes sociologiques décrivant l'évolution de populations et l'interaction entre les individus les formant. Malgré sa complexité et les difficultés qui lui sont inhérentes, l'étude du chaos est instructive à plus d'un titre. Elle a mené les scientifiques vers un niveau de compréhension supérieur dans bien des domaines, et continue à le faire.

09 mai 1997 : Sciences et Métaphysique, soeurs ennemies ?

Conférence par Prof. Jean-Claude Pont

Les relations entre Science et Métaphysique ne sont rien moins que simples. Si les brouilles de famille sont légion c'est que l'héritage est lourd à porter. On pourrait aussi dire que c'est un vieux couple plein de tendresse et de rancoeur. Mais au-delà de ces métaphores familiales, cet exposé entend montrer comment, le plus souvent à l'insu des scientifiques eux-memes, la métaphysique est présente dans la science et à quel point il est difficile de faire le départ entre ce qui revient à l'une et ce qui relève de l'autre. A cet effet on examinera, d'une manière à la fois historique et critique, quelques principes à l'oeuvre dans la science, de manière à en révéler des traits qui ont un caractère métaphysique marqué, au moins lorsque le mot est pris dans une certaine acception. L'influence inverse est encore plus patente et la seconde partie de l'exposé s'efforcera d'en décrire certains aspects

21 mars 1997 : Evolution des voitures électriques dans le monde

Conférence par Marcel Maurer

Les voitures électriques séduisent chaque jour un plus grand nombre d'adeptes. A leurs avantages de résoudre efficacement les problèmes d'encombrement, de bruit et de pollutions, des atouts incontournables pour des pays comme le Japon et les EtatsUnis, de nouvelles qualités s'ajoutent qui ont beaucoup d'attraits auprès du grand public. La France, qui montre une bonne longueur d'avance sur le plan industriel pour les véhicules électriques présente des véhicules avec des autonomies de l'ordre de 100 Km, des vitesses de pointe permettant la fréquentation des autoroutes et un confort de conduite stupéfiant. Les nombreux progrès technologiques actuels qui en font des véhicules fiables des plus attractifs seront présentés lors de la conférence. La Suisse et le Valais se profilent véritablement en pionniers du véhicule électrique, comme le montrent les nombreux programmes pilotes qui seront présentés. Le conférencier, Monsieur Marcel Maurer, professeur et responsable du centre de compétence en énergie de l'école d'Ingénieurs du valais est une personne des plus engagée dans ce domaine en Valais. Il saura, mieux que quiconque nous faire comprendre de façon simple, les motivantes potentialités de ce type de véhicule et nous faire réfléchir aux possibilités de recourir à eux à des fins officielles ou privées.

07 mars 1997 : La cosmologie

Conférence par Prof. Merlo Ponti

16 novembre 1996 : Premier Symposium

Orateur invité: Martin Pohl : Les Expériences au LEP: Résultats et perspectives. Quatre expériences installées au collisionneur électron-positron du CERN (LEP) ont accumulé des données depuis 1989. Dans la première phase, du début jusqu'en 1995, ils ont observé plusieurs millier d'annihilations électron-positron en bosons Z, les particules médiatrices des interactions faibles neutres. Depuis l'année dernière, un programme d'augmentation de l'énergie du collisionneur à commencé. Après une première étape en 1995, avec une augmentation en énergie de 50%, le seuil pour la production des Bosons W, médiateurs des interactions faibles chargées a été atteint. Ces expériences couvrent donc une des quatre forces fondamentales avec une grande précision et découvrent des détails étonnants sur ses propriétés. La présentation expliquera en grandes lignes les idées derrière la recherche au LEP et les résultats majeurs obtenus jusqu'ici. Brièvement, nos espérances pour le futur du LEP, qui sera exploité jusqu'en l'an 2000, seront présentées. Véronique Briguet : Comment un effet indésirable peut devenir l'objet d'une thèse Un laser à Argon focalisé sur un guide d'onde plan se met à pulser à une fréquence de l'ordre du hertz. Voilà un exemple de système non-linéaire sur le chemin du chaos. Nicolas Produit : Le spectromètre magnétique alpha (AMS) L'absence apparente d'antimatière dans l'univers est un des grands problèmes non résolu de la physique des particules et de la cosmologie. Les théories qui tentent d'expliquer cette simple observation sont hautement spéculatives. AMS sera le première spectromètre magnétique important place en orbite hors de l'atmosphère. Il permettre de chercher l'antimatière dans les rayons cosmiques avec une sensibilité dix mille fois meilleure que les mesures actuelles. Ceci permettre de savoir s'il existe une quantité significative d'antimatière dans l'univers. Daniele Gerion : Evolution des propriétés magnétiques de l'atome au solide massif. Les atomes ayant des couches électroniques incomplètes possèdent un moment magnétique. Lorsqu'ils condensent et forment un solide, certains électrons se délocalisent, ce qui conduit en général à une réduction du moment magnétique de l'atome dans le solide par rapport à la valeur du moment de l'atome isolé. D'autre part, les interactions inter-atomiques peuvent aligner les moments magnétiques et donnent naissance ainsi à une aimantation macroscopique. Lorsque l'énergie thermique est suffisante pour vaincre ces interactions, l'aimantation disparaît: on parle alors de transition ferromagnétique et de température de Curie. Deux question se posent alors: Comment évolue la valeur du moment magnétique lorsqu'on passe de l'atome au solide massif (et pourquoi)? A partir de combien d'atomes retrouve-t-on les caractéristiques du solide, c'est à dire à partir de combien d'atomes peut-on parler de température de Curie et de transition de phase lorsqu'on sait que ces grandeurs physiques ne sont définies qu'en limite thermodynamique? L'étude expérimentale et théorique d'agrégats de deux à quelques milliers d'atome constituent un premier pas vers la compréhension des mécanismes conduisant à un ordre magnétique.

11 octobre 1996 : A la Recherche de Planètes

Conférence par Prof. Michel Mayor, Observatoire de Genève

Une planète orbitant à la manière de la Terre autour d'une étoile est très difficilement observable : la lumière de son soleil éblouit l'observateur. Toute observation directe de la planète est donc particulièrement ardue. C'est pourquoi, dans leur quête de planètes extrasolaires, les astronomes se concentrent surtout sur la détection de phénomènes indirects. La première méthode, celle qui a permis à Michel Mayor et Didier Quéloz de découvrir une planète en orbite autour de l'étoile 51 Pégase, consiste à analyser la lumière qui nous provient du ''candidat soleil''. En effet, de la même manière que le son d'une ambulance devient plus grave lorsque celleci s'éloigne de l'observateur, on observe un décalage de fréquence dans le spectre de lumière d'un objet céleste en mouvement. Cet effet, connu sous le nom ''d'effet Doppler'', peut être mis à profit dans la détection de planètes. En effet, l'attraction gravitationnelle de la planète subie par l'étoile lui fait parcourir une trajectoire elliptique. Selon la masse de la planète, et son éloignement de l'étoile, cette trajectoire sera plus ou moins alongée, et le temps que mettra l'étoile pour la parcourir plus ou moins long. Au cours du temps, et au fur et à mesure que la planète poursuit son mouvement orbital, l'étoile s'éloigne puis se rapproche du télescope qui enregistre son rayonnement lumineux. Il ne reste à l'astronome ''qu'à'' analyser les variations de fréquence de ce rayonnement pour obtenir des informations qui lui permettront de deviner par exemple la taille de la planète, ou sa période de révolution. Une deuxième méthode consiste à observer directement les mouvements induits par la planète sur l'étoile autour de laquelle elle orbite. A cause de l'effet de gravitation dont nous avons parlé au paragraphe précédent, l'étoile bouge sur le fond céleste, et ce mouvement est en principe observable. Par contre, la différence de taille, et donc de masse entre les deux objets a pour conséquence la faiblesse de cet effet. On pense malgré tout être aujourd'hui en mesure d'observer des planètes analogues à Jupiter grâce à cet effet. Des expériences de ce type sont actuellement en cours à l'observatoire du mont Palomar, en Californie. Une troisième méthode a permis en 1994 à Alex Wolfzcsan de l'université de Pennsylvanie d'observer trois planètes autour d'une étoile un peu particulière appelée pulsar. Ce genre d'étoile émet à intervalle de temps très régulier des bouffées de rayonnement électromagnétique dans un cône d'angle très petit. Si le pulsar se rapproche de la terre, la distance à parcourir par ce rayonnement pour nous parvenir diminue. Il nous parvient donc plus vite. Pour peu qu'une planète orbite autour du pulsar, et donc qu'il suive une courbe qui le rapproche puis l'éloigne alternativement de nous, l'intervalle de temps entre ses pulsations variera. Cette variation de la période de pulsation peut également être mise à profit afin de détecter des planètes extrasolaires, ce d'autant qu'en astronomie, ce sont généralement les mesures de temps qui sont les plus précises. Néanmoins, cette méthode ne permet de détecter de planète qu'en orbite autour d'une étoile émettant un signal régulier. Une quatrième méthode est basée sur des effets dits de lentilles gravitationnelles : un rayonnement lumineux est courbé lorsqu'il passe à proximité d'un objet massif. Une planète qui passerait à proximité de l'axe d'observation étoileterre dévierait brusquement la lumière émise par l'étoile et cette dernière semblerait donc changer de position. Cette déviation est d'autant plus forte que l'objet est lourd. Pour l'instant, cette méthode n'a rien donné. Finalement, il peut arriver que par chance, l'axe d'observation terreétoile passe exactement par le plan d'orbite de la planète, et que donc de la terre on puisse parfois observer une éclipse indiquant la présence d'un corps en orbite. L'annonce il y a une année de la découverte de ''51 Peg b'', première planète extrasolaire orbitant autour d'une étoile de la série principale, c'estàdire de la même famille que notre soleil a eu un retentissement extraordinaire. Depuis, une dizaine d'autres planètes ont été découvertes, et l'on se demande si finalement un système solaire autour d'une étoile n'est pas la règle plutôt que l'exception. Certaines de ces planètes sont ''standard'', mais d'autres pourraient remettre totalement en question certains des principes de formation de systèmes solaires que l'on croyait acquis. ''51 Peg b'' par exemple est une géante gazeuse semblable à Jupiter qui se promène sur une orbite très rapprochée de son soleil, un peu à la manière d'une planète tellurique comme la terre, mercure, venus ou mars. S'estelle formée là ? Atelle changée d'orbite au cours de son histoire ? Et si oui pourquoi ? Si ces méthodes sont tributaires de la précision des instruments de mesure pour découvrir ''51 Peg b'' il a fallu utiliser un spectrographe capable de détecter des variations de vitesse de 13 m/s soit environ 50 km/h sur un objet se trouvant à 50 annéeslumières de la terre... elles dépendent également de manière cruciale du temps d'observation mis à disposition du chercheur : comment en effet pourraiton observer les oscillations périodiques d'une étoile induites par une planète dont la période de révolution serait d'une année en ne l'observant qu'une nuit ? C'est pourquoi les observations s'étalent sur des missions de plusieurs nuits réparties sur une ou plusieurs années. Comme de plus, rien ne permet de cibler à l'avance avec certitude une étoile autour de laquelle orbite une planète observable, la recherche de planètes extrasolaires est avant tout une question de patience. Mais le jeu n'en vautil pas la chandelle ?

14 juin 1996 : La métrologie, science de la mesure

Conférence par O. Piller, directeur de l'Office Fédéral de Métrologie

En cette fin de XXème siècle, il nous semble normal que tout ce qui peut être mesuré distance, masse, volume, durée... le soit, et puisse l'être avec la précision requise par la situation. Il va de soi d'autre part que deux marchandises de même nature soient mesurées selon la même unité, unité qui ne diffère pas d'un pays à l'autre, mais dont la définition est universelle, fixée par des conventions internationales. Il n'en a pourtant pas toujours été ainsi. L'histoire de la métrologie moderne remonte à la fin du XVIIIème siècle, lorsque la France adopte le système métrique. Le ''Comité International pour la Fondation d'un Système International d'Unité'' se réunit dans la foulée à Paris. On lui doit notamment le premier étalon du mètre défini alors comme ''la quarante millionième partie du méridien terrestre''. La République Helvétique d'alors envoie comme délégué le Prof. Johannes Georg Tralles assister aux travaux de cette commission. Il en revient munis ''d'étalons du comité'' qui permettront plus tard à son élève Ferdinand Rudolph Hassler de fonder le bureau américain des poids et mesures. C'est après son retour, en 1801, qu'a lieu dans notre pays la première tentative d'instaurer un système unique d'unités. Mais par la faute de l'instabilité politique qui règne alors en Suisse, il faudra attendre 1835 pour que douze cantons décident d'un concordat visant à introduire le système métrique, mais conservant certaines terminologies traditionnelles comme la livre et le pied. Puis, dans la foulée de la constitution de 1848, la première ordonnance fédérale sur les poids et mesures est édictée en 1851 : le concordat entre en vigueur sur le territoire de la confédération. Toutefois, nulle mention n'est faite d'un organisme fédéral chargé du contrôle des étalons de mesure cantonaux, et ceuxci se mettent à différer dangereusement les uns des autres. Devant cette menace, de nouveaux étalons du mètre et du kilogramme sont ramenés de Paris en 1864, ce qui permet à un premier organisme fédéral d'étalonnage de prendre ses quartiers à Berne : le bureau des vérifications qui deviendra bientôt le bureau fédéral des poids et mesures. C'est en 1875 que le concordat est aboli et que le système métrique entre officiellement en vigueur en Suisse. Dès lors, on mesure les distances en mètres, les masses en kilogrammes, le temps en secondes, l'intensité de courant électrique en ampères, la température en kelvins, la quantité de matière en moles et l'intensité lumineuse en candelas. Il aura fallu plus de trois quarts de siècle depuis la première tentative de Tralles pour en arriver là. Anglais et Américains attendent toujours... C'est enfin en 1909 qu'une nouvelle loi fonde l'Office Fédéral de Métrologie. Ses compétences sont élargies à tout le domaine des techniques de mesure physique. Peu à peu, son activité se centre sur la confection et la distribution de nouveaux étalons à usage notamment industriel.

01 mars 1996 : Ozone et pollution de l'air

Conférence par Prof. Hubert van den Bergh

L'ozone est une molécule composée de trois atomes d'oxygène très importante dans l'atmosphère. On trouve de l'ozone dans la stratosphère et dans la troposphère. La stratosphère est la couche d'air se situant entre 10 km et 50 km d'altitude approximativement et où l'on retrouve la plus grande partie de l'ozone, tandis que la troposphère constitue la couche d'air qui va depuis le sol jusqu'à la stratosphère. Si tout l'ozone était comprime au sol à pression atmosphérique, il formerait une couche qui ne mesurerait que 3 mm d'épaisseur, ce qui donne une idée de la fragilité de la couche d'ozone. En stratosphère, l'ozone est la molécule qui par des processus physico-chimiques filtre une grande partie de la lumière ultraviolette qui serait dangereuse pour la vie sur la terre. Ce gaz a donc un effet de parasol très important, et lorsque l'on parle de "trou d'ozone", il s'agit toujours d'un trou d'ozone stratosphérique, c'est à dire une région de la terre qui n'est plus protégée de la lumière UV. Il a été démontré que les CFC (chlorofluorocarbones, utilisés précédemment dans les aérosols et les installations de réfrigération) ont une action néfaste sur la couche d'ozone stratosphérique, et qu'ils sont très probablement à la source de la diminution de l'ozone stratosphérique observée ces dernières années. En troposphère, la molécule d'ozone est ce que l'on appelle un "polluant secondaire", issu de réactions chimiques ayant lieu entre les différents gaz présents dans l'air. L'ozone est un gaz irritant qui peut provoquer des troubles pulmonaires. Il peut atteindre de fortes concentrations lors de certains épisodes appelés épisodes de smog photochimique qui ont surtout lieu en été et dans des régions à forte pollution (stabilité météorologique, température élevée, soleil, oxydes d'azote et hydrocarbures). C'est pourquoi l'ozone est souvent utilisé comme indicateur de la qualité de l'air.