Posted on05/09/2022byFabrice Monna|Comments Off on L’article ‘Volumetric obscurance as a new tool to better visualize relief from Digital Elevation Models’ par Rolland et al. publié dans Remote Sensing
Dans le cadre de son travail de doctorat Tanguy Rolland et collaborateurs ont développé une technique permettant de mettre en lumière les variations de relief d’une surface. Le concept est issu du monde des jeux vidéo. Il s’agit de l’occlusion ambiante, et plus particulièrement de la Volumetric Obscurance. Les modèles numériques de terrain, qu’ils intéressent une petite surface ou une grande, sont traités en quelques secondes, au pire quelques minutes, et les surfaces concaves et convexes sont identifiées très facilement. Un point fort de cette étude: elle est accompagnée d’un logiciel fonctionnant sous Windows, d’un plugin QGIS, et du code Python 3 (voir ici).
Modélisation 3D et photogrammétrie – Une (très) rapide introduction (2h CM / 4h TD / 3h TP)
Modélisation – différentes techniques
Positionnement dans l’espace – Microscan Time of flight Triangulation Tomodensitométrie – SfS Shape from Stereo Shape from Motion – Photogrammétrie Applications
Photographie pour la photogrammétrie
Les APN La focale et la distorsion Le format de sauvegarde Exposition (ISO, ouverture, vitesse) Choix du sujet Prise de vue Mise à l’échelle Quelques exemples
Utilisation dans un contexte recherche. Exemple de la Sibérie:
Quelques exemples de travaux sur la 3D par photogrammétrie, réalisés à Dijon:
Rolland, T.; Monna, F.; Magail, J.; Esin, Y.; Navarro, N.; Wilczek, J.; Gantulga, J.-O.; Chateau-Smith, C. (2021) Documenting carved stones from 3D models. Part II — Ambient occlusion to reveal carved parts. Journal of Cultural Heritage 49, 28–37 pdf.
Lkebir, N.; Rolland, T.; Monna, F.; Masrour, M.; Bouchaou, L.; Fara, E.; Navarro, N.; Wilczek, J.; Beraaouz, H.; Chateau-Smith, C.; Pérez-Lorente, F. (2020) Anza palaeoichnological site, Late Cretaceous, Morocco. Part III: Comparison between traditional and photogrammetric records. Journal of African Earth Sciences, 172, 1-11, n° 103985. pdf
Monna, F.; Magail, J.; Rolland, T.; Navarro, N.; Wilczek, J.; Gantulga, J.O.; Esin, Y.; Granjon, L.; Allard, A.-C. Chateau-Smith, C. (2020) Machine learning for rapid mapping of archaeological structures made of dry stones – Example of burial monuments from the Khirgisuur culture, Mongolia – Journal of Cultural Heritage. 43, 118-128. pdf
Wilczek, J. ; Monna, F. ; Jébrane, A.; Labruère-Chazal, C.; Navarro, N.; Couette, S.; Chateau Smith, C. (2018) Computer-assisted orientation and drawing of archaeological pottery. Journal of Computing and cultural heritage. 11, 2. pdf
Monna, F.; Esin, Y.; Magail, J.; Granjon, L.; Navarro, N.; Wilczek, J.; Saligny, L.; Couette, S.; Dumontet, A.; Chateau, C. (2018) Documenting carved stones by 3D modelling – Example of Mongolian deer stones. Journal of Cultural Heritage. 34, 116-128. pdf
Magail, J., Monna, F., Esin, Y., Wilczek, J., Yeruul-Erdene, C., Gantulga, J-O. (2017) Application de la photogrammétrie à la documentation de l’art rupestre, des chantiers de fouilles et du bâti. Bulletin Musée d’Anthropologie préhistorique de Monaco, n° 56, 69-92. pdf
Les images à télécharger et à décompresser (TP_images).
Voir ci dessous (section Ressources indispensables et liens) pour les instructions d’installation. Pour info, le modèle au final.
En cas de problèmes, cette vidéo résume les étapes d’installation des logiciel, et la production d’un modèle 3D à l’aide de VisualSFM et Meshlab.
Le travail à réaliser sur Marsannay
Un vol drone programmé en zigzag a permis d’acquérir 54 photos aériennes de la vigne de l’Université à une altitude de 35 m environ par rapport à la surface de la parcelle. MNT et orthomosaïque ont été produits à l’aide de Metashape, mais les résultats ne sont pas fournis à pleine résolution pour faciliter leur traitement. Tous deux sont géoréférencés sur la seule base du GPS intégré au drone.
Le MNT (généré en WGS 84) (fichiers de 2023 – 2024):
Téléchargez les documents ci-dessus. Ouvrir les fichiers TIF dans QGIS et le fichier KMZ dans Google Earth.
Question 1: Evaluer la précision absolue de la géolocalisation de l’orthomosaïque à partir de son insertion dans Google Earth. En d’autres termes, évaluer le décalage moyen (en m) entre le KMZ et le fond Google Earth (on considérera en première approximation que le calage Google Earth est exact et plusieurs points remarquables et homologues entre le fond et l’orthomosaïque seront pris). Fournir dans le rapport une capture d’écran de l’orthomosaïque incorporée dans Google Earth .
Question 2: Evaluer la précision relative (en m) à partir des distances apparentes entre les cibles (voir ci dessous) dans QGIS et les valeurs mesurées au télémètre laser (l’orthomosaïque doit être reprojetée en Lambert93). Fournir dans le rapport une capture d’écran de l’orthomosaïque dans QGIS et le tableau des distances mesurées sur le terrain et celles obtenues sur QGIS.
L’image ci dessus représente la position de 3 cibles circulaires placées avant le vol du drone (A, B et C- il faut zoomer pour repérer correctement le centre des cibles). Sur le terrain, les distances A-B, B-C et A-C, mesurées au télémètre laser, étaient: 76.65 m, 34.70 m, et 86.14 m, respectivement.
Question 3: Insérer le MNT dans le projet QGIS et reprojeter le MNT en Lambert93. Colorier le MNT de façon pertinente et ajouter les courbes de niveaux (choisir un pas approprié). Fournir dans le rapport l’image finale avec le nord, un titre et une échelle. Que pensez-vous de l’allure du MNT ?
Question 4: Quelle est la résolution de l’orthomosaïque en TIF en cm/pix (donnée disponible depuis QGIS)?
Le travail est à rendre avec le reste du rapport sur Plubel (voir consignes envoyées par mail).
Ressources indispensables et liens
VisualSFM, logiciel libre de photogrammétrie (ici) Meshlab, logiciel libre de manipulation de modèles 3D (ici). Pour information, la version 2023.12 marche très bien pour la procédure décrite.
Télécharger puis décompresser la version de VisualSFM correspondant à votre système d’exploitation (cf ci dessus). Pour connaitre le type de système (32 ou 64 bits): panneau de configuration / Système et sécurité / Système. Attention à bien prendre la version CUDA si vous possédez une carte graphique NVIDIA. Pour savoir si une carte NVIDIA est installée: panneau de configuration / Matériel et Audio / périphériques et imprimantes / Gestionnaire de périphériques / Cartes Graphiques
Transférer le dossier à l’endroit que vous jugez approprié.
Télécharger tous les fichiers correspondant à votre système d’exploitation ici (ne surtout pas oublier cette étape, autrement la reconstruction dense ne sera pas possible). Tout copier et tout coller dans le répertoire que vous venez de créer, et contenant VisualSFM.
Modélisation VisualSFM + Meshlab (tutoriels qui peuvent être utiles):
Le site Combien ca porte (ici) VisualSfM and MeshLab workflow sur Youtube (ici) 3D scanning for free! sur YouTube (ici)
CloudCompare, logiciel libre de manipulation de modèles 3D (ici) Blender, logiciel libre de modélisation, d’animation et de rendu en 3D (ici) Sketchfab, l’équivalent de YouTube, mais pour des modèles 3D (ici) Photoscan, un excellent logiciel commercial de photogrammétrie (ici) Meshroom, un autre excellent logiciel de photogrammétrie, en open source (ici)
Présentation de Meshroom (carte NVIDIA, cuda compatible conseillée)
Meshroom et conseils de prise de vue
Ci-dessus, une vidéo expliquant comment mettre le modèle à l’échelle (en anglais), autrement voir sur internet pour une explication en français.
EXERCICE : Vous voulez vous entraîner à recoller deux faces d’un objet ? Le modèle d’une stèle néolithique gravée :
A l’aide de Meshlab, transformer les deux faces du modèle en STL (sans texture) puis les aligner (voir procédure ci-dessous). Sauver le résultat en STL.
Aligner les deux faces texturées du modèle puis sauver le résultat en format OBJ (voir procédure ci-dessous).
Combiner sans texture (ici), combiner avec texture (un tuto)
Le résultat final sur Sketchfab:
Bibliographie spécialisée
Ce cours a été préparé sur la base de nombreuses ressources internet et de livres, finalement assez simples.
Polygon mesh processing, Mario Botsch, Leif Kobbelt, Mark Pauly, Pierre Alliez, Bruno Levy, 250 pages. Editeur: A K Peters/CRC Press, langue: anglais. Une référence dans le traitement des modèles 3D.
Computer Vision: Algorithms and Applications. Richard Szeliski, 812 pages, Editeur Springer London Ltd, langue: anglais. Tout ce que vous avez toujours voulu savoir sur la vision par ordinateur.
La stéréoscopie numérique, Benoit Michel & Yves Pupulin, 291 pages, Editeur: Eyrolles, langue : français. Une bonne introduction à la production d’images stéréocopiques numériques, fixes ou animées.
La photomodélisation architecturale : Relevé, modélisation, représentation d’édifices à partir de photographies, Livio De Luca, 263 pages, Editeur : Eyrolles, langue : français. Un libre intéressant, bien illustré, et qui présente la photogrammétrie.
La 3D libre avec Blender 2.6 . Olivier Saraja, Henri Hebeisen, Boris Fauret, 535 pages, Editeur : Eyrolles, langue: français. Excellente introduction à Blender.