Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nous avons beaucoup de données d'imagerie hyperspectrale sous forme de CADRES VIDÉO dans des fichiers .h5. Il y a beaucoup de métadonnées encodées et les fichiers sont globalement très désordonnés en ce moment. Quelqu'un a-t-il déjà travaillé avec ça ?
Il faut que le traitement soit super rapide car la quantité de données que nous générons chaque jour est assez folle.
Actuellement, nous utilisons Python pour traiter et retraiter chaque fichier à chaque fois que nous l'utilisons et ce n'est pas très propre lol.
J'ai besoin d'aide pour comprendre les moyens les plus rapides de faire entrer beaucoup de fichiers de 4 à 6 Go (des centaines d'entre eux) dans un RDBMS avec une génération de métadonnées appropriée pour chaque expérience. Il faut comprendre implicitement la région étant imagée et les cellules de code-barres pseudo.
Je me demande si quelqu'un ici a des suggestions pour la manière la plus rapide de faire cela. Je ne peux pas vraiment me permettre d'embaucher une personne à temps plein pour cela en ce moment car nous sommes à un stade précoce, donc tout outil qui faciliterait ma vie serait apprécié.
@MaziyarPanahi C'est facile à faire manuellement. C'est difficile de le faire correctement sur toutes les images
315
Meilleurs
Classement
Favoris