RTFlash

Le tri sélectif s'applique aussi aux fichiers informatiques

Les données inutilisées ralentissent le fonctionnement des ordinateurs. Pour repérer et trier ces dernières de manière optimale, il est intéressant de s'inspirer du tri des déchets réalisé dans la vie réelle.

Les ordinateurs contiennent pour la plupart d'importantes masses de données inutilisées, qui ralentissent leur fonctionnement, et provoquent par là même une augmentation de la consommation en électricité. Pour parvenir à régler ce problème, Ragib Hasan and Randal Burns, chercheurs à l'université John Hopkins, proposent plusieurs méthodes d'identification et de tri de ces dossiers inutilisés. En s'inspirant des méthodes de la vie réelle, ils dressent une sorte de pyramide des priorités, depuis la méthode la plus intéressante, jusqu'à celle qui ne doit être utilisée qu'en dernier recours.

  • Réduire la quantité de fichiers en privilégiant une action auprès des développeurs

La première de ces solutions est d'agir à la base. Il faudrait ainsi inciter les éditeurs de logiciel à optimiser la taille et le nombre de fichiers créés via l'installation des logiciels en question. Autre solution, qui doit là encore être à l'initiative des éditeurs : subdiviser les données de fonctionnement des logiciels en groupes de données plus restreints. Ces groupes pourraient ensuite être réutilisés par d'autres logiciels, de manière indépendante, permettant ainsi de limiter la démultiplication d'un même fichier. Le processus porte le nom de "déduplication des données". De même, le recyclage et la récupération des données d'un logiciel voué à être supprimé sont des pistes explorées, même si moins recommandées.

  • Ne supprimer les dossiers qu'en dernier recours

Etonnamment, la suppression pure et simple des données en question constitue le dernier recours, du fait de la quantité d'énergie qu'elle nécessite. A défaut de pouvoir l'éviter, celle-ci pourrait prendre la forme d'un "enfouissement automatique". Le stockage des données inutilisées se ferait dans un dossier spécifique, qui les effacerait automatiquement au bout d'un certain laps de temps. La question qui émerge est la suivante: étant donné la capacité toujours croissante des périphériques de stockage, pourquoi ne pas simplement transférer les données sur ceux-ci, pour ensuite faire du tri lorsque nécessaire ? Pour les chercheurs une telle méthode réduit l'espérance de vie des périphériques en question, en plus de n'être pas viable à long terme pour peu que la quantité de données soit trop importante pour le périphérique lui-même.

L'Atelier

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

  • Un nouveau modèle d'IA modulaire

    Un nouveau modèle d'IA modulaire

    Tout le monde a entendu parler des grands modèles de langage (LLM). Ce sont des modèles d’apprentissage profond à grande échelle entraînés sur d’immenses quantités de texte qui constituent la base ...

  • IBM dévoile la première puce quantique 1000-qubit

    IBM dévoile la première puce quantique 1000-qubit

    La nouvelle puce quantique d’IBM a suscité des réactions dans le domaine de la high-tech. Dévoilée au grand public le 4 décembre dernier, cette innovation est dotée de 1121 qubits. C’est une des ...

  • Microsoft annonce une étape décisive vers l'ordinateur quantique

    Microsoft annonce une étape décisive vers l'ordinateur quantique

    Microsoft a annoncé avoir conçu les qubits logiques les plus fiables jamais enregistrés. Une avancée technologique réalisée en collaboration avec Quantinuum, société créée en 2021 de la fusion entre ...

Recommander cet article :

back-to-top