Evitando a pesquisa de balcanização em blockchain

De Everett Muzzy e Mally Anderson

Priorizando a interoperabilidade

Esta peça é a primeira de uma série que explora o estado e o futuro da funcionalidade interoperável no ecossistema blockchain. Definimos “interoperabilidade” aqui como a capacidade de blockchains de trocar dados entre plataformas – incluindo dados e transações fora da cadeia – sem a ajuda de terceiros. Ao examinar o progresso da arquitetura Web2 desde a teoria inicial até a adoção em massa, a série argumenta que a interoperabilidade do protocolo blockchain é nada menos que um requisito fundamental para realizar todo o potencial da tecnologia. A série demonstra como o ecossistema está atualmente em perigo de “balcanização”, ou seja, tornando-se uma série de sistemas desconectados que operam lado a lado, mas isolados uns dos outros – em face da concorrência e da pressão comercial. Para que o ecossistema priorize a interoperabilidade, ele deve estabelecer uma camada de liquidação segura, radicalmente descentralizada e sem confiança na qual os blockchains de operação simultânea podem ancorar suas transações. Dado o estado atual dos sistemas de blockchain, a arquitetura do Ethereum mais se assemelha ao que é necessário para esta cadeia raiz universal.

O risco de balcanização

Os problemas da arquitetura Web2 de hoje – em particular o silenciamento, vulnerabilidade e má gestão dos dados do usuário – são rastreáveis ​​ao desvio da indústria dos primeiros valores da Internet, que originalmente priorizavam a interoperabilidade como a chave para um mundo conectado à web sustentável e equitativo. Em seu ritmo atual, o ecossistema de blockchain está em risco de “balcanização” semelhante, onde a interoperabilidade de protocolo é despriorizada conforme as empresas correm para demonstrar o caso de uso de seu próprio blockchain mais rápido do que seus concorrentes. O risco é que as pressões para a adoção convencional possam chegar antes que a infraestrutura Web3 seja suficientemente interoperável e segura para manifestar a visão completa de seus arquitetos originais. A Web3 pode acabar se parecendo muito com a Web2 hoje em termos de exclusão financeira, silagem de informações e insegurança de dados – mas, em vez disso, é subscrita por uma série de blockchains que, por design competitivo, não interoperam no nível de protocolo.

Lições da Internet Primitiva

A Web foi desenvolvida como um projeto de pesquisa acadêmica com financiamento público que começou na década de 1960 para aumentar a capacidade dos humanos de criar, transmitir e compartilhar informações. As primeiras iterações de informações online assumiram a forma de textos e imagens básicos, conectados e compartilhados por uma rede de hiperlinks. Desde então, “informações” na web evoluíram para representar a propriedade de ativos (especialmente dinheiro), perfis de usuário e identidade (especificamente, fragmentos digitais espalhados de sua identidade).

Independentemente de quão ampla tenha se tornado a definição de informação representada digitalmente, a teoria do gerenciamento de informações online encontra suas raízes na teoria da web inicial. Ao construir a próxima evolução na transmissão de informações, os primeiros pioneiros da Internet procuraram garantir que as informações na Web fluíssem de uma maneira que imitasse os padrões naturais do comportamento humano. Tim Berners-Lee, inventor da World Wide Web, posicionou sua missão de construir uma estrutura da Web que permitisse a transmissão humanística de informações em contraste à estrutura hierárquica de uma corporação – até aquele ponto, uma das estruturas dominantes por meio da qual os humanos produziam e gerenciavam grandes volumes de informações. Enquanto a estrutura rígida de cima para baixo de uma empresa buscava ditar o movimento da informação de uma maneira estabelecida, padronizada e rastreável, a realidade de como as pessoas se comunicavam e compartilhavam era muito mais confusa e amorfa. Para emular a troca social de informações ponto a ponto natural, Berners-Lee recomendou simplicidade na arquitetura da web. Ao fornecer apenas o esqueleto de um sistema digital, as informações poderiam crescer e evoluir da maneira mais natural – e, portanto, deve ser escalonável. No minuto em que o “método de armazenamento … colocasse [d] suas próprias restrições” sobre como as coisas poderiam ser transferidas, as informações seriam prejudicadas. Berners-Lee solidificou sua convicção de que a Web deve imitar estruturas naturais ao descrever o crescimento da Web como “células formadoras dentro de um cérebro global” [fonte] e esperando que um dia possa “espelhar” a maneira como os humanos interagem, socializam e vivem diariamente [fonte].

O objetivo de obter informações digitais escaláveis ​​e transmitidas de forma humanística dependia de um conceito crucial: o “efeito fim a fim” [fonte] O efeito “ponta a ponta” significava que os usuários da Internet (ou seja, aqueles que estavam em uma das pontas da transmissão de uma informação) experimentaram essa informação de maneira consistente. Os humanos precisavam ser capazes de adotar comportamentos repetitivos que lhes permitissem recuperar, processar e enviar informações aproximadamente da mesma maneira sempre que interagissem com a web. Dito de outra forma, o tecnologia que serviu ao consumidor uma informação deve fazê-lo em um método consistente vez após vez, em todas as regiões geográficas e entre os tipos de conteúdo.

O efeito ponta a ponta poderia ser alcançado de duas maneiras: 1) Terceiros poderiam se estabelecer como intermediários, prestando serviços para fornecer informações de forma consistente, uma vez que eram enviadas do ponto A ao ponto B. Essas empresas e seus engenheiros fariam “Temos que aprender a arte de projetar sistemas” para negociar e controlar a passagem de informações pelas fronteiras digitais que separavam protocolos incompatíveis. 2) A segunda opção era para todos os protocolos pelos quais as informações precisassem passar para serem interoperáveis, garantindo que os dados pudessem viajar perfeitamente de usuário para usuário, sem barreiras que precisariam de negociação adicional para serem violadas. A interoperabilidade de protocolo nativo criaria o “efeito de ponta a ponta” automaticamente, em vez de depender de terceiros exploradores para fornecer essa uniformidade nos bastidores.

Desses dois métodos, a interoperabilidade foi a abordagem preferida daqueles que lideram o desenvolvimento inicial da Web. Berners-Lee frequentemente descreveu esse objetivo como “universalidade”, sugerindo que o futuro da Web incluiria uma série de protocolos distintos, mas todos eles existiriam no mesmo macrocosmo, garantindo assim a compatibilidade. Berners-Lee implorou que os tecnólogos considerassem a interoperabilidade universal um objetivo mais importante do que “técnicas gráficas sofisticadas e recursos extras complexos” [fonte] Ele sentiu que era menos importante sucumbir ao crescente apetite por lucro e comercialização (que exigia gráficos sofisticados e recursos extras) do que se concentrar no projeto de protocolo.

À medida que a comercialização se acelerou e as origens públicas da Internet diminuíram gradualmente, ela introduziu um novo conjunto de incentivos a uma indústria anteriormente amplamente acadêmica. Como resultado, uma série de padrões isolados começou a emergir à medida que empresas privadas competiam para superar umas às outras, ameaçando a fragmentação irreparável do ecossistema da web. A criação de sistemas separados e individuais era a antítese da otimização econômica de longo prazo. Em um dos documentos fundamentais da Internet, Paul Baran observou em 1964 que “nas comunicações, como nos transportes, é mais econômico para muitos usuários compartilhar um recurso comum, em vez de cada um construir seu próprio sistema”. Em 1994, o World Wide Web Consortium foi formado para estabelecer padrões de toda a indústria para garantir que a mensagem de interoperabilidade permanecesse uma prioridade central no desenvolvimento da web. O objetivo do WWW Consortium de “realizar todo o potencial da web” [fonte] dependia da crença de que por meio da interoperabilidade – alcançada pelo estabelecimento de padronização entre os protocolos – esse potencial completo pode ser alcançado.

 

células formadoras de tim berners citam pesquisa de consenso

 

Mudança de incentivos de informação

Uma olhada no gerenciamento de conteúdo na Web fornece um exemplo pungente da ideologia inicial de interoperabilidade e padronização. A questão do gerenciamento de conteúdo – especificamente, as questões de captura de valor, estabelecimento de propriedade e proteção de direitos autorais – foi freqüentemente solicitada para destacar as possíveis deficiências da Internet e estimular os desenvolvedores, reguladores e tecnólogos a começar a discutir essas questões desde o início.

“A informação quer ser livre” costuma ser rastreada até Stewart Brand em uma convenção de 1984. A informação, pensava-se, deveria se espalhar aberta e organicamente em forma digital, assim como aconteceu entre os membros da espécie ao longo da história humana. A Web permitiu a disseminação quase infinita de informações, fornecendo o melhor local para expressar sua propensão para a liberdade além dos limites dos métodos de comunicação analógicos até o momento. A Web apresentava um palco ampliado para a transmissão de informações, mas o fez à custa de definições claras de propriedade, escassez e valor aos quais os mercados globais se acostumaram. A Web permitiu que a informação fosse gratuita, mas também expôs a oportunidade de ser explorada economicamente. (Isso foi verdade em outros períodos de avanço tecnológico da informação, como a revolução da impressão no século XV e o rádio no início do século XX – admitido, em escalas exponencialmente menores). Esta consequência está relacionada à segunda parte da citação da Marca, com referência menos frequente: “A informação quer ser cara” [The Media Lab, pág. 202-203]. Olhando para trás, o argumento de Brand pode ser reformulado com mais precisão como “a informação quer ser valorizado pelo que vale a pena ”, o que significa que às vezes – embora nem sempre – é caro. Novos padrões e recursos de circulação de informações, impulsionados pela Web, tornaram impossível a avaliação adequada da informação digital. Não se poderia, por exemplo, rastrear com precisão a origem de uma parte do conteúdo para fornecer ao seu criador original uma compensação adequada. Essa falta de protocolos de propriedade padrão para o conteúdo permitiu que terceiros interviessem e fornecessem essa padronização – ou, mais precisamente, a ilusão de padronização – facilitando o de ponta a ponta efeito que foi identificado como crucial para o uso em escala da Internet. E eles fizeram isso para todos os tipos de informação, não apenas para conteúdo visual e escrito. A ilusão de interoperabilidade de protocolo de back-end foi aumentada por uma esterilização crescente do que os usuários experimentavam no front end. Kate Wagner, escrevendo sobre o desaparecimento das idiossincrasias iniciais do design da Internet nos anos 90 e no início dos anos 2000, refere-se ao “… suspiro final de uma estética nativamente vernacular da web, definida por uma falta de restrição sobre a aparência da página ”[fonte] A Web voltada para o consumidor tornou-se cada vez mais padronizada, mas o back-end permaneceu isolado e, conseqüentemente, permaneceu maduro para exploração de dados e lucro.

À medida que terceiros intervieram e se tornaram cruciais para a transmissão padrão de informações, eles começaram a ditar o “valor” das informações. Essa dinâmica econômica inicial incentivou a criação de escassez artificial de informações. Negar a informação, sua tendência natural para ser grátis, criou etiquetas de preços artificialmente altos associadas a dados diferentes, em vez de permitir que a informação fosse avaliada pelo que ela valia. Essas empresas se saíram bem ao restringir o fluxo das informações que controlam. Eles tentam tratar a informação como a maioria das outras commodities na Terra, onde a teoria simples de oferta e demanda dita que a escassez é igual a valor. Como John Barlow observou em seu 1994 “The Economy of Ideas”, no entanto, “a tecnologia digital está separando informações do plano físico” [fonte] Ao tratar as informações como um produto físico e controlar ou restringir sua capacidade de fluir livremente, terceiros suprimiram a qualidade única da informação – que se torna mais valioso a mais comum isto é. “Se presumirmos que o valor é baseado na escassez, como acontece com os objetos físicos”, argumenta Barlow, o mundo estaria em risco de desenvolver tecnologias, protocolos, leis e economias contrárias à verdadeira natureza humana da informação [fonte].

“O significado da [Internet] não está na tecnologia de rede, mas nas mudanças fundamentais nas práticas humanas que resultaram”, escreveu Peter Denning em uma reflexão de 1989 sobre os primeiros vinte anos da Internet [fonte] No final do dia, a Web2 proliferou porque o efeito ponta a ponta foi implementado com sucesso, alcançando a adoção em massa e dando aos usuários comuns o ilusão de uma única Internet global. Embora a interoperabilidade fosse uma aspiração central de Berners-Lee e outros arquitetos da Internet, tudo o que importava para os consumidores finais (e, portanto, para as empresas que buscavam lucrar com eles) era que a Internet se adaptasse à utilidade diária o mais rápido possível. Em formação apareceu viajar orgânica e humanisticamente; contente apareceu para ser obtido e verificado; e dados apareceu estar amplamente disponível e confiável. Nos bastidores, no entanto, as mesmas empresas terceirizadas (ou seus descendentes) desde os primeiros dias permaneceram os guardiões da transmissão de informações na Internet – com consequências notáveis.

Os primeiros teóricos da Internet não pretendiam que a tecnologia permanecesse independente de empresas privadas para sempre. Na verdade, a realização do potencial da Internet baseou-se na suposição de que o desejo de uso em larga escala levaria as empresas privadas a intervir e financiar um desenvolvimento mais rápido e global. A chegada de empresas privadas, porém, precipitou a eventual balcanização do ecossistema.

O Surgimento da Balcanização

A visão original dos arquitetos da Internet era uma “rede de redes” aberta, distribuída e descentralizada [fonte] Financiado por bilhões de dólares de pesquisa pública dos EUA e inicialmente concebido como um projeto acadêmico, os primeiros vinte anos de desenvolvimento da Internet se desenrolaram em relativa obscuridade. Seus financiadores iniciais, mais notavelmente ARPA (a Agência de Projetos de Pesquisa Avançada, que mais tarde se tornou DARPA) e a National Science Foundation (NSF), não esperavam necessariamente lucro do projeto, então a Internet inicial cresceu lenta e deliberadamente [fonte].

As primeiras instâncias de rede foram práticas: computadores mainframe em universidades de pesquisa eram proibitivamente caros, portanto, compartilhar recursos entre eles resultaria em melhores pesquisas. O governo controlava essas redes, o que significa que todos os participantes eram incentivados a compartilhar seu código para garantir o financiamento contínuo e manter uma ética de código aberto. Os protocolos surgiram em meados da década de 1970, e os padrões de comunicação digital interoperáveis ​​surgiram logo em seguida, por razões práticas: as máquinas precisavam ser capazes de se comunicar umas com as outras. Em 1985, a rede NSFNET conectou todos os principais mainframes universitários, formando o primeiro backbone da Internet como a conhecemos. No final da década de 1980, mais participantes migraram para esta rede de backbone – o suficiente para que o tráfego começasse a ultrapassar a capacidade da rede de hospedá-la.

O congestionamento da rede era a principal preocupação, à medida que a atividade e o entusiasmo pela tecnologia aumentavam. Em 1991, Vinton Cerf – co-designer dos protocolos TCP / IP e outro grande arquiteto da Internet – reconheceu o crescente desafio de escalar a infraestrutura: “No fermento da tecnologia moderna de telecomunicações, um desafio crítico é determinar como a arquitetura de Internet se desenvolveu nos últimos 15 anos terá que mudar para se adaptar às tecnologias emergentes de velocidade gigabit da década de 1990 ”[fonte] A NSFNET impôs a proibição de atividades comerciais, mas isso ainda não foi suficiente para limitar o tráfego. A proibição precipitou um desenvolvimento paralelo de redes privadas para hospedar atividades comerciais.

Em resposta a essa tendência de rede paralela e à pressão sobre a NSFNET, o presidente da NSF, Stephen Wolff, propôs privatizar a camada de infraestrutura. Isso aliviaria o congestionamento ao trazer o investimento privado para aumentar a capacidade da rede, permitir que a NSFNET se integre com redes privadas em um único sistema interoperável e liberar o projeto do controle do governo para permitir que a Internet se torne um meio de massa. Em 1995, a NSFNET foi totalmente eliminada e um ecossistema de redes privadas tomou seu lugar. Em sua esteira, cinco empresas (UUNET, ANS, SprintLink, BBN e MCI) surgiram para formar a nova camada de infraestrutura da Internet. Eles não tinham concorrentes reais, nenhuma supervisão regulatória, nenhuma política ou governança orientando sua interação e nenhum requisito de desempenho mínimo emitido por qualquer entidade governamental. Este ambiente totalmente aberto e competitivo, embora sem precedentes, teve pouca oposição entre os líderes de pensamento da Internet primitiva, porque eles sempre pretendiam que as redes fossem entregues a provedores de infraestrutura privados quando houvesse interesse dominante suficiente para mantê-las. Em outras palavras, eles esperado os incentivos para mudar quando o público adotou a tecnologia. O protocolo e as camadas de links da Web se desenvolveram em relativa obscuridade; apenas na camada de rede ou infraestrutura os mercados se formaram.

Os cinco novos fornecedores principais conectaram e integraram redes locais e de pequena escala nos Estados Unidos. Essencialmente, essas empresas começaram como mediadoras e se tornaram provedores de fato em virtude do fato de que supervisionaram todos os dados do sistema em algum ponto de sua transmissão. Essa organização parece contra-intuitivamente centralizada em comparação com a priorização da arquitetura de sistema resiliente e distribuída até aquele ponto, mas os arquitetos da Internet estavam cientes disso. Como havia mais de um provedor em jogo, no entanto, os defensores da privatização achavam que haveria competição suficiente para evitar a balcanização da camada de serviços de infraestrutura. Nos anos que se seguiram ao desmantelamento da NSFNET, não foi esse o caso na prática. A privatização da camada de infraestrutura resultou em um oligopólio de provedores que controlam essencialmente o fluxo de dados de toda a Internet, completamente em segredo, em virtude do controle do movimento e da taxa de transferência das informações. Eles poderiam conceder atalhos uns aos outros para superar o congestionamento geral da rede e oferecer tratamento preferencial a sites que pagassem pela entrega de conteúdo mais rápida. Os acordos entre esses provedores eram totalmente desconhecidos, uma vez que não eram obrigados a divulgar seus termos, de modo que redes de provedores menores não podiam competir no mercado.

Portanto, uma tentativa no início da década de 1990 de evitar a balcanização da Internet acabou resultando em uma centralização extrema acidental, na qual uma conspiração de cinco provedores de infraestrutura ganhou o controle de toda a camada de protocolo. Em certo sentido, esta é uma lição sobre a importância dos protocolos de governança nativos e da regulamentação razoável no desenvolvimento de mercados saudáveis ​​para novas tecnologias. Uma boa regulamentação que resulta em concorrência mais justa e aberta, em última análise, resulta em um mercado geral mais rico. Alguma retenção do interesse público também introduz um ciclo de feedback de verificações no desenvolvimento de uma nova tecnologia à medida que ela se expande. Uma deficiência da camada de infraestrutura privada quando tomou forma foi que a atenção insuficiente à segurança foi transmitida da NSFNET, onde não havia sido uma preocupação tão crítica; sem mecanismos de segurança nem R&D em questões de segurança geralmente introduzem vulnerabilidades que ainda existem hoje. A quase total falta de governança intencional também resultou na extrema falta da chamada “neutralidade da rede”, portanto, priorização injusta das velocidades de rede para o licitante mais alto e acesso amplamente desigual às redes em geral. As medidas tomadas para evitar a balcanização, em vez disso, resultaram em uma camada de infraestrutura irreversivelmente balcanizada.

As lições dessa centralização de provedores do início da década de 1990 são bastante relevantes para a fase atual de desenvolvimento do ecossistema de blockchain. O estabelecimento de padrões para interoperabilidade provavelmente surgirá em escala como uma necessidade de funcionalidade. Isso era verdade para a camada de protocolo da Internet e é provável que se torne realidade na Web3 quando surgem pressões de rede suficientes e, portanto, incentivos econômicos. Mas enquanto a camada de protocolo da Web foi financiada publicamente e, portanto, livre de expectativas de lucro por mais de vinte anos, a primeira onda de blockchains foi fundamentalmente de natureza financeira e os incentivos financeiros estiveram presentes desde o início e centrais até a camada de protocolo. Portanto, embora existam padrões compartilhados no desenvolvimento Web2 e Web3, o risco de balcanização surge em pontos muito diferentes em seus cronogramas.  

 

citação balcanizada

 

Priorizando a interoperabilidade

Apesar do fato de que as previsões de sua existência já existem há décadas e a teoria criptográfica há décadas a mais do que isso, a tecnologia blockchain na prática – quanto mais a tecnologia blockchain programável e utilizável – ainda é incipiente. Em um estágio inicial, a inovação e a competição vertiginosas são importantes para o crescimento do ecossistema. A indústria de blockchain de hoje, no entanto, está sujeita às mesmas pressões da indústria de Internet inicial das décadas de 1980 e 90. A oportunidade do blockchain está mudando o mundo – e, portanto, o risco também.

A oportunidade da tecnologia blockchain, como esta série irá argumentar, depende da interoperabilidade entre todos os principais projetos de blockchain como fundamental para o desenvolvimento desses protocolos. Somente garantindo que todos os blockchains, sejam eles inteiramente não relacionados ou ferozmente competitivos uns com os outros, incorporem compatibilidade em sua funcionalidade básica, os recursos da tecnologia podem ser escalonados para uso global e conseqüências.

Com a força da mídia absoluta que as vendas de criptografia, tokens e mercados de tokens precipitaram nos últimos dois anos, as empresas de blockchain estão sob tremenda pressão para provar o uso, a lucratividade e a comercialização da tecnologia. Dessa forma, os incentivos que levaram a Internet a diminuir a prioridade da interoperabilidade e se concentrar na usabilidade cotidiana da tecnologia não são diferentes dos de hoje. Acima de tudo, nossa capacidade hoje de estar sempre conectado e receber atualizações em tempo real em qualquer lugar do mundo garante que o ecossistema de blockchain esteja sob mais pressão para demonstrar suas capacidades comerciais do que a Internet inicial em um estágio semelhante em seu desenvolvimento. Conforme as empresas correm para provar que são “melhores” ou mais “prontas para o mercado” do que outros protocolos existentes, elas abandonam a interoperabilidade para se concentrar – para reciclar as palavras de Berners-Lee – nas “técnicas gráficas sofisticadas e recursos extras complexos” que atraem mais para investidores e consumidores míopes.

A corrida para prometer funcionalidade imediata é economicamente eficaz, mas sua continuação pode comprometer todo o desenvolvimento da indústria de blockchain. Se as empresas continuarem a ignorar a interoperabilidade e, em vez disso, cada uma construir sua própria blockchain proprietária e tentar lançá-la contra um suposto concorrente do mercado, o ecossistema em questão de anos poderia se parecer muito com os primeiros dias da Internet não interoperável. Ficaríamos com uma coleção espalhada de blockchains em silos, cada um suportado por uma rede fraca de nós e suscetível a ataque, manipulação e centralização.

Imaginar um futuro não interoperável para a tecnologia blockchain não é muito difícil. Todo o material e imagens para pintar o quadro existe na doutrina inicial da Internet e já foi discutido na primeira seção deste artigo. Assim como na Internet de hoje, a qualidade mais importante dos dados na Web3 é o efeito “ponta a ponta”. Os consumidores que interagem com a Web3 devem experimentar uma interação contínua, independentemente do navegador, carteira ou site que estejam usando para que a tecnologia seja escalonada para adoção em massa. Para que esse objetivo fim a fim seja alcançado, a informação deve poder fluir de maneira orgânica e humanística. Deve ser permitido que seja gratuito. Um blockchain hoje, no entanto, tem não conhecimento de informações que podem existir em um blockchain diferente. As informações que residem na rede Bitcoin não têm conhecimento das informações que residem na rede Ethereum. A informação, portanto, é negada seu desejo natural e capacidade de fluir livremente.

As consequências de as informações serem armazenadas em silos no blockchain em que foram criadas vêm diretamente dos livros de história da Internet. A Internet centralizada na camada de infraestrutura devido às pressões de dimensionamento para atender ao entusiasmo do público e à adoção em massa. Se o ecossistema da Web3 chegar a esse ponto antes que a interoperabilidade de protocolo seja suficientemente difundida, a mesma coisa acontecerá novamente. Sem a interoperabilidade de blockchain nativa, terceiros irão intervir para gerenciar a transferência de informações de um blockchain para outro, extraindo valor para si próprios no processo e criando o tipo de atrito que a tecnologia deve eliminar. Eles terão acesso e controle sobre essas informações e terão a capacidade de criar escassez artificial e valor inflacionado. A visão de um futuro da Internet com blockchain que a indústria tantas vezes evoca não é nada sem interoperabilidade. Sem ele, nos encontraremos em um futuro com uma rede global quase idêntica à paisagem Web2 dominante hoje. Os consumidores do dia a dia ainda desfrutarão de sua interação suave e consistente com a Web3, mas seus dados não estarão seguros, sua identidade não estará completa e seu dinheiro não será deles.

Olhando para a Frente

Tudo isso não quer dizer que a indústria tenha esquecido totalmente ou abandonado a importância da interoperabilidade. Provas de conceito como Relé BTC, consórcios como o Enterprise Ethereum Alliance, e projetos como Wanchain demonstrar que algumas pessoas ainda reconhecem o valor crítico da interoperabilidade. Há uma boa chance de que as pressões do mercado incentivem o ecossistema de blockchain em direção à interoperabilidade, independentemente de como as coisas evoluem no curto prazo. No entanto, a interoperabilidade reacionária vs. proativa ainda pode significar a diferença entre onde o valor é capturado e como os dados são explorados. Interoperabilidade reacionária – ou seja, apenas decidir que a interoperabilidade deve ser um fator crucial do blockchain muitos anos depois, quando o mercado assim o exigir – oferece oportunidades para terceiros intervirem e facilitar essa interoperabilidade. Eles lucram com seus serviços e têm acesso assimétrico aos dados dos usuários. Interoperabilidade proativa – ou seja, garantir que a interoperabilidade seja codificada em protocolos nesta fase nascente do ecossistema – por outro lado, garante que os dados possam ser transmitidos de forma segura e eficiente entre blockchains sem ter que passar o controle para um terceiro mediador.

Há, sem dúvida, um equilíbrio necessário e saudável entre comercialização e interoperabilidade de código aberto. A comercialização promove competição e inovação, incentivando desenvolvedores e empreendedores a construir sistemas que funcionem melhor para seus clientes. O equilíbrio, porém, se mostrou precário no passado. À medida que aumenta a pressão para que o blockchain cumpra sua promessa, descobriremos que a comercialização coloca cada vez mais ênfase no blockchain para estar pronto para o mercado, não importa quais ideologias ela tenha que sacrificar no curto prazo.

Pesquisa ConsenSys

 

 

sobre os autores

Everett Muzzy

Everett é escritor e pesquisador da ConsenSys. Sua escrita apareceu em Hacker Noon, CryptoBriefing, Moguldom, e Coinmonks.

Mally Anderson

Mally é escritora e pesquisadora da ConsenSys. Sua escrita apareceu no MIT’s Journal of Design and Science, MIT’s Inovações, Quartzo, e Escudeiro.

Obtenha as últimas novidades da ConsenSys Research

Inscreva-se para ser notificado sobre futuras Publicações de Pesquisa da ConsenSys

Cadastre-se →