Présentation
Alors qu’il est encore impossible pour les micro-aéronefs de quelques grammes d’apponter de manière autonome, les abeilles réalisent avec aisance cette manœuvre sur des fleurs en mouvement. Plus que d’une meilleure motricité, cette prouesse résulterait surtout de l’utilisation d’un mécanisme efficient de contrôle visuel du comportement. Nos études préalables en virtualité augmentée sur l’appontage d’hélicoptère sur des frégates suggèrent que la perception visuelle des possibilités d’atterrissage (i.e., affordance d’appontabilité) est un principe efficient à la fois pour décider si l’atterrissage est possible mais aussi pour plus facilement contrôler et effectuer la tâche avec succès.
Dans ce sujet de stage, nous questionnerons donc l’hypothèse de la perception d’affordance chez les abeilles, que nous testerons de façon comportementale mais aussi via des simulations. Pour cela, des abeilles identifiées par RFID seront entraînées à atterrir sur une fleur artificielle motorisée. Ce dispositif expérimental est déjà construit au sein de l’équipe. Leur vol sera filmé en 3D tandis que seront manipulés le mouvement de la fleur et le poids de l’abeille. A partir de ces vols filmés, il s’agira de mieux comprendre quels sont les indices visuels utilisés pour évaluer les possibilités d’atterrissage et de modéliser le mécanisme de régulation du mouvement d’«appontage». D’un point de vue fondamental, ces expérimentations permettront d’infirmer/confirmer l’hypothèse d’un mécanisme de contrôle visuel inter-espèces. D’un point de vue appliqué, les simulations développées ouvriront la voie a de nouveaux mécanismes de contrôle visuel bio-fidèle en robotique.
Type du contrat : Stage conventionné
Lieu : Institut des Sciences du Mouvement – Etienne-Jules Marey, Equipe Systèmes Bio-Inspirés, 163 Avenue de Luminy, 13009 Marseille. Au cœur du Parc National des Calanques.
Durée du stage : 5 ou 6 mois à partir du 1er février 2024
Gratification : 4,05€/heure, correspondant à ~570€/mois (les organismes publics ne peuvent rémunérer qu’au minimum réglementaire)
Techniques utilisées
- Paradigme expérimental : chambre de vol possédant une fleur artificielle dont on manipulera le mouvement ; Caméras + reconstitution 3D de trajectoires ; Marquage RFID des abeilles.
Compétences requises
- Ethologie, Entomologie, Psychologie Expérimentale, Neurosciences Visuelles et Comportementales
- Statistiques (descriptive, inférentielle, modèles mixtes…), maîtrise du logiciel R/Rstudio serait un plus
- Des compétences en La connaissance des langages Matlab/Python serait un plus
- Bon niveau en anglais : g., TOIEC >830, étudiant.e motivé.e par une poursuite en thèse
Date limite de candidature : 7 janvier 2024
Merci d’envoyer un CV, une lettre de motivation ainsi que des relevés de notes (Master 1 et Master 2) à : Julien SERRES julien.serres@univ-amu.fr / Antoine MORICE antoine.morice@univ-amu.fr
Publications récentes de l’équipe en lien avec le sujet de stage
Serres, J. R., Morice, A. H., Blary, C., Miot, R., Montagne, G., & Ruffier, F. (2022). Floor and ceiling mirror configurations to study altitude control in honeybees. Biology Letters, 18(3), 20210534. https://hal.science/hal-03614115/
Thomas, M., Pereira Figueira, J. M., Serres, J. R., Rakotomamonjy, T., Ruffier, F., & Morice, A. H. (2021). Helicopter Pilots Synchronize Their Altitude with Ship Heave to Minimize Energy When Landing on a Ship’s Deck. The International Journal of Aerospace Psychology, 31(2), 135-148. https://hal.archives-ouvertes.fr/hal-03082645/document
Portelli, G., Serres, J. R., & Ruffier, F. (2017). Altitude control in honeybees: joint vision-based learning and guidance. Scientific reports, 7(1), 9231. https://www.nature.com/articles/s41598-017-09112-5
Serres, J. R., & Ruffier, F. (2017). Optic flow-based collision-free strategies: From insects to robots. Arthropod structure & development, 46(5), 703-717. https://www.sciencedirect.com/science/article/pii/S146780391730066X