La part des réseaux décentralisés dans un monde hyperconnecté et riche en données

Must Read

L’échange de crypto-monnaie CoinEx se développe rapidement dans la région MENA

*Article sponsorisé par « CoinEx » Il existe actuellement de nombreuses plateformes de trading de crypto-monnaies qui tentent...

PDG de Ripple : Nous sommes prêts à régler avec la SEC, mais à une condition !

Hier, M. Brad Garlinghouse, PDG de Ripple a accordé une interview à "Fox Business" dans laquelle il a...

Comprendre le paradoxe du Bitcoin – E-Crypto News

Bitcoin a été une énigme pour beaucoup de gens. C'est cette façade un peu mystérieuse qui a créé...

Par& nbspClark

L’humanité crée un volume incroyable de données, mais la puissance de distribution des puces ne peut pas faire gagner du temps – la décentralisation est la réponse.

Lorsqu’il provient du stockage de données informatiques, il peut sembler que nous sommes consécutivement à court de chiffres. Si vous êtes suffisamment vieux, vous vous souviendrez peut-être quand le stockage sur disquette était lent en kilo-octets dans les années 1980. Si vous êtes un peu plus récent, vous connaissez peut-être mieux les clés USB libellées en gigaoctets ou les énergies dures qui saisissent des téraoctets aujourd’hui.

L’empreinte de données profonde de l’humanité

Mais nous créons aujourd’hui des données à un rythme sans précédent. En conséquence, nous réussissons à être brillants pour saisir des nombres si énormes qu’ils semblent presque hors de la compréhension humaine. Pour obtenir des informations sur le domaine roman dans lequel nous entrons, réfléchissez à ceci: la firme d’intellect du marché IDC estime que la création et l’ingestion internationales totales de données s’élevaient à 59 zettaoctets en 2020 – soit 59 billions de gigaoctets d’argent ancien.

Jusqu’à présent, alors que le volume total de données existantes se situe aujourd’hui à une échelle très profonde, la vitesse à laquelle il augmente est encore plus frappante. En 2012, IBM a calculé que 90% des données de la création avaient été façonnées au cours des 2 années précédentes. Depuis lors, le développement exponentiel du volume de données mondial s’est maintenu à un rythme soutenu et les apparences de tendance devraient perdurer. En effet, selon les projets IDC qui se sont terminés les 3 prochaines années, l’humanité produira plus de données qu’elle ne l’a fait au cours des 3 décennies précédentes.

La question forte est: qu’est-ce qui a changé? Pourquoi produisons-nous brusquement beaucoup plus de données que jamais? Bien sûr, les smartphones font partie de l’histoire. Tout le monde transmet désormais efficacement un ordinateur portable dans sa poche, éclipsant la puissance des ordinateurs de bureau des générations précédentes. Ces machines sont continuellement liées à Internet et reçoivent et transmettent sans cesse des données, en douceur lorsqu’elles sont inactives. L’adulte américain régulier de la génération Z déverrouille son téléphone 79 fois par jour, environ toutes les 13 minutes. La nature toujours active de ces appareils a donné lieu à l’avalanche de nouvelles données produites, avec 500 millions de nouveaux tweets, 4 k téraoctets de publications Facebook et 65 milliards de nouveaux messages WhatsApp enflammés dans le cyberespace toutes les 24 heures.

Les smartphones sont justes la pointe de l’iceberg

Les smartphones ne sont cependant que la manifestation la plus notable du nouveau réalisme des données. Bien que vous puissiez vous assurer que les étapes vidéo telles que Netflix et YouTube constituent la part du lion des données mondiales, en détail, la part totale des consommateurs ne représente qu’environ 50%, et ce pourcentage devrait diminuer lentement dans les années à venir. Alors, qu’est-ce qui marque le reste?

L’augmentation de l’Internet des objets et des appareils connectés a encore augmenté notre empreinte mondiale de données. En effet, le développement le plus rapide d’une année sur l’autre est un lieu captivant dans un groupe d’informations reconnues comme des données embarquées et de productivité. Il s’agit d’informations dérivées de capteurs, de machines liées et de métadonnées fabriquées mécaniquement qui existent tard dans les scènes, au-delà de la visibilité des opérateurs finaux.

Prenez les véhicules autonomes, par exemple, qui utilisent les technologies, comme le sonar, les caméras, le LIDAR, le radar et le GPS, pour surveiller l’environnement de la circulation, cartographier et éviter les dangers. Intel a calculé que le véhicule autonome régulier utilisant les technologies actuelles produirait 4 téraoctets de données chaque jour. Pour mettre cela en perspective, un seul véhicule produira un volume de données par jour égal à près de 3 000 personnes. En outre, il sera extrêmement important que ces données soient stockées en toute sécurité.

D’une part, il sera utile de planifier les intervalles d’entretien et de diagnostiquer les problèmes techniques de manière plus professionnelle. Il peut également s’agir d’une vente de fouille en tant que part d’un système décentralisé pour organiser la circulation et minimiser la consommation d’énergie dans une ville précise. Enfin et peut-être surtout à court terme, il sera essentiel de régler les arguments juridiques en cas de blessures ou d’accidents.

Les véhicules indépendants ne sont qu’une partie miniature de l’histoire complète. Selon McKinsey & Company, le pourcentage d’entreprises utilisant la technologie IoT est passé de 13% à 25% entre 2014 et 2019, le nombre général d’appareils devant avoir atteint 43 milliards d’ici 2023. De l’IoT industriel aux villes intelligentes entières, l’économie à venir aura un nombre considérablement accru d’appareils liés produisant des données potentiellement très sensibles, voire dangereuses.

La fin est-elle dans la vision de la loi de Moore?

Il y a 2 facteurs à refléter et soulignent ensemble l’utilité boule de neige des réseaux décentralisés. 1st, bien que nous ayons plus de données que jamais auparavant pour s’attaquer aux tests mondiaux, comme le changement climatique, l’imprévisibilité financière et la fête des virus aéroportés comme COVID-19, nous pourrions être imminents une frontière technique ferme dans les bases de la quantité de ces données peuvent être traités par des ordinateurs centralisés en temps réel. Bien que les volumes de données aient augmenté de façon exponentielle au cours des nouvelles années, le pouvoir de dispensation n’a pas augmenté au même rythme.

Dans les années 1960, Gordon Moore a inventé le co-fondateur de Moore’s Law Intel, qui spécifiait qu’en tant que nombre de transistors sur un duo de micropuces tous les 2 ans, la puissance de calcul augmentera à un rythme constant. Mais Moore lui-même a approuvé que ce n’était pas une loi technique; c’était plutôt une observation statistique éphémère. En 2010, il a reconnu que comme les transistors sont aujourd’hui imminents de la taille des atomes, la puissance de la dispense de l’ordinateur va répandre une limite pratique difficile dans les décennies à venir. Après cela, des cœurs supplémentaires peuvent être ajoutés aux processeurs pour augmenter la vitesse, mais cela augmentera la taille, le coût et la consommation d’énergie de l’appareil. Pour échapper à un effet de goulot d’étranglement, il nous faudra donc trouver de nouvelles habitudes de surveillance et de réponse aux données.

Les deuxnd facteur à refléter est la cybersécurité. Dans un monde de plus en plus interconnecté, des millions de nouveaux appareils réussissent en ligne. Les données qu’ils fournissent affecteront hypothétiquement des choses telles que la compétence des réseaux électriques, la façon dont les soins de santé sont administrés et la façon dont le trafic est accompli. En conséquence, l’avantage de la sécurité – la sécurité des données qui résident à l’extérieur du cœur du réseau – devient primordial. Cela représente un défi complexe pour les autorités de cybersécurité, car les nombreux mélanges différents de dispositifs et de protocoles offrent de nouvelles surfaces d’attaque et des chances d’intrusions d’intermédiaire.

Connaissance des réseaux dans la nature

Si la distribution centralisée est trop lente et peu sûre pour les économies riches en données à venir, quelle est l’autre? Certains experts ont cherché l’inspiration dans le monde naturel, se disputant le fait que nous devrions passer d’un modèle descendant à un modèle ascendant de soins infirmiers et de réponse aux données. Prenez des colonies de fourmis, pour un échantillon. Bien que chaque fourmi séparée ait une intelligence relativement modeste, ensemble, les colonies de fourmis parviennent à créer et à maintenir des réseaux complexes et vivants de sentiers de recherche de nourriture qui peuvent attacher plusieurs nids avec des bases alimentaires transitoires. Ils le font en suivant quelques comportements simples et en répondant à des stimuli dans leur environnement de résidence, comme les traînées de phéromones d’autres fourmis. Au cours de la période, cependant, l’évolution a exhumé les instincts et les comportements sur un individu égal qui produisent un système extrêmement réel et robuste au niveau macro. Si un sentier est démoli par le vent ou la pluie, les fourmis découvriront un itinéraire inédit, sans qu’aucune fourmi séparée ne soit même consciente de l’objectif général de maintenir le réseau.

Et si cette logique similaire pouvait être pratique pour établir des réseaux informatiques? À l’instar des colonies de fourmis, dans un réseau de chaînes de blocs, de nombreux nœuds de pouvoir de dispensation timide peuvent se syndiquer pour produire un résultat global meilleur que la somme de ses parties. Tout comme les natures et les comportements sont vitaux, les règles qui mènent à l’interaction des nœuds sont dangereuses pour déterminer dans quelle mesure un réseau sera fructueux pour atteindre des objectifs au niveau macro.

Aligner les incitations de chacun des acteurs décentralisés dans un réseau tout aussi bénéfique a pris des milliers d’années pour que la nature s’impose. C’est donc prévisible que c’est aussi un test problématique pour les concepteurs humains de réseaux décentralisés. Mais bien que les mutations génétiques des animaux soient fondamentalement aléatoires sur les bases de leur bénéfice éventuel, nous avons l’avantage de pouvoir délibérément modéliser et concevoir des incitations pour atteindre des objectifs généraux communs. C’était à l’avant-garde de nos esprits: l’impartial était de supprimer toutes les incitations perverses pour les acteurs individuels qui érodaient l’utilité et la sécurité du réseau dans son ensemble.

En concevant prudemment des constructions incitatives dans cette méthode, les réseaux décentralisés peuvent considérablement renforcer le degré de sécurité des avantages. Tout comme le réseau de recherche de chemin d’une colonie de fourmis continuera à fonctionner même si une fourmi solitaire se perd ou meurt, les réseaux décentralisés sont également robustes, permettant au réseau de continuer à fonctionner complètement même lorsque des nœuds séparés tombent en panne ou se déconnectent. De plus, pas un seul nœud ne souhaite traiter ou comprendre toutes les données dans leur intégralité pour que le réseau dans son ensemble soit clair pour y répondre. Dans cette méthode, certains chercheurs pensent que nous pouvons créer une structure d’incitation économique qui détecte et répond mécaniquement aux défis partagés dans une méthode décentralisée.

Conclusion La capacité des données que nous produisons est une explosion, et notre aptitude à les surveiller et à y répondre en utilisant des réseaux informatiques centralisés est imminente dans ses limites. Pour cela, les réseaux décentralisés sont exclusivement adaptés aux défis rapides. Une part de recherche, de défis et d’expérimentation reste à faire, mais la robustesse et l’utilité importantes de la technologie sous-jacente ont été démontrées. Alors que nous évoluons vers un monde hyperconnecté et riche en données, les réseaux décentralisés pourraient jouer un rôle important dans le développement

Clark

Chef de la technologie.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -

Latest News

L’échange de crypto-monnaie CoinEx se développe rapidement dans la région MENA

*Article sponsorisé par « CoinEx » Il existe actuellement de nombreuses plateformes de trading de crypto-monnaies qui tentent...

PDG de Ripple : Nous sommes prêts à régler avec la SEC, mais à une condition !

Hier, M. Brad Garlinghouse, PDG de Ripple a accordé une interview à "Fox Business" dans laquelle il a déclaré que Ripple serait prêt...

Comprendre le paradoxe du Bitcoin – E-Crypto News

Bitcoin a été une énigme pour beaucoup de gens. C'est cette façade un peu mystérieuse qui a créé la bulle Bitcoin. Cependant, cette bulle...

RippleX donne 2 millions de dollars pour promouvoir les solutions NFT sur le grand livre XRP

Ripple n'est peut-être pas l'entreprise la plus appréciée de l'espace crypto, mais sa persévérance et son désir de croître malgré les revers doivent...

L’échange de crypto-monnaie Huobi interrompt ses services pour les utilisateurs chinois

L'échange de crypto-monnaie Huobi Global, l'un des plus importants utilisés par les chinois, est devenu le premier échange de crypto à annoncer la...
- Advertisement -

More Articles Like This