Nous avons beaucoup de données d'imagerie hyperspectrale sous forme de CADRES VIDÉO dans des fichiers .h5. Il y a beaucoup de métadonnées encodées et les fichiers sont globalement très désordonnés en ce moment. Quelqu'un a-t-il déjà travaillé avec ça ? Il faut que le traitement soit super rapide car la quantité de données que nous générons chaque jour est assez folle. Actuellement, nous utilisons Python pour traiter et retraiter chaque fichier à chaque fois que nous l'utilisons et ce n'est pas très propre lol. J'ai besoin d'aide pour comprendre les moyens les plus rapides de faire entrer beaucoup de fichiers de 4 à 6 Go (des centaines d'entre eux) dans un RDBMS avec une génération de métadonnées appropriée pour chaque expérience. Il faut comprendre implicitement la région étant imagée et les cellules de code-barres pseudo. Je me demande si quelqu'un ici a des suggestions pour la manière la plus rapide de faire cela. Je ne peux pas vraiment me permettre d'embaucher une personne à temps plein pour cela en ce moment car nous sommes à un stade précoce, donc tout outil qui faciliterait ma vie serait apprécié.
@MaziyarPanahi C'est facile à faire manuellement. C'est difficile de le faire correctement sur toutes les images
315