o bibliotecário 2.0 (SP1)

Service Pack 1


  • Facebook

    O Bibliotecário 2.0 on Facebook
  • Outros Blogues


    oitenta e cinco. Get yours at bighugelabs.com/flickr
  • RSS O outro blogue

  • Translate

  • Comentários

  • Arquivos Temáticos

  • Arquivo Mensal

O que é Web 2

Adaptaç��o de pt_BR a pt_PT em Curso

Padrões de design e modelos de negócios para a nova geração de software[1]

30/09/2005

Tim O�����Reilly[2]

O estouro da bubble dot com no Outono de 2001 marcou uma reviravolta na web. Muitos concluíram que a web tinha recebido uma publicidade exagerada quando, na realidade, bolhas e consequentes reorganiza��ões parecem ser um traço comum a todas as revoluções tecnológicas. Tais crises tipicamente assinalam o momento em que uma tecnologia ascendente está pronta para assumir seu lugar no centro da acção. Impostores são eliminados, as histórias de verdadeiro sucesso mostram sua força e come������a a assentar uma compreensão sobre o que distingue um caso do outro.

O conceito de �������������Web 2.0” come����ou com uma conferência de brainstorming entre a O���������Reilly e a MediaLive International. Dale Doughherty, pioneiro da web e vice-presidente da O’Reilly, notou que, ao contrário de haver explodido, a web estava mais importante do que nunca, apresentando intrigantes aplica��ões novas e sítios de sucesso eclodindo com surpreendente regularidade. E, melhor ainda, parecia que as empresas que haviam sobrevivido ao colapso tinham algo em comum. Será que o desmoronamento dot com marcou uma espécie de ponto fulcral dando sentido a uma palavra de ordem do tipo ���Web 2.0”? Ach��mos que sim e, desse modo, nasceu a Confer��ncia Web 2.0.

No ano e meio que se seguiu, o termo “Web 2.0��� claramente consagrou-se com mais de 9,5 milhões de menções registadas no Google. Mas ainda existe um enorme desacordo sobre o que significa Web 2.0, alguns menosprezando a expressão — como um termo de marketing sem nenhum sentido ��� e outros aceitando-a ����� como a nova forma convencional de conhecimento.

Esse artigo é uma tentativa de esclarecer o que queremos dizer com Web 2.0.

No brainstorming inicial, formulámos a nossa ideia de Web 2.0 através de exemplos:

Web 1.0

 

Web 2.0

DoubleClick

 Google AdSense

Ofoto

 Flickr

Akamai

���

 Bit Torrent

mp3.com

�������

 Napster

Britannica Online

 Wikipedia

Sítios pessoais

 Blogues

evite

���

 upcoming.org e EVDB

Especulação com nomes de domínio

 optimização para motores de busca

page views

�����

 custo por clique

���Screen scraping���������

���

 serviços web

publica�o

 participação

Sistemas de gestão de conteúdo

 wikis

diretórios (taxonomia)

�����

 tags (“folksonomia”)

stickness

 syndication

 

A lista era interminável. Mas o que nos fazia identificar uma aplicaç��o ou abordagem como �����Web 1.0” e outro como “Web 2.0�������? (A pergunta é especialmente premente porque a noção de Web 2.0 tornou-se tão popular que actualmente companhias estão usando o termo como uma palavra-chave de marketing sem realmente entender o que quer dizer. ���� particularmente difícil porque muitas dessas novas empresas viciadas na palavra-chave definitivamente não são Web 2.0 e alguns das aplicações que identificamos como Web 2.0, como o Napster e o BitTorrent nem mesmo são verdadeiras aplicações web!) Come��amos por tentar trazer à tona os princípios que, de alguma forma, são demonstrados por histórias de sucesso de web 1.0 e pelas novas aplica������es mais interessantes.

1. A Web como plataforma

Como muitos conceitos importantes, o da Web 2.0 n��o tem fronteiras rígidas mas, pelo contrário, um centro gravitacional. Pode-se visualizar a Web 2.0 como um conjunto de princípios e práticas que interligam um verdadeiro sistema solar de sítios que demonstram alguns ou todos esses princ��pios e que est��o a distâncias variadas do centro.

image001

A figura 1 mostra um mapa de noç����es de Web 2.0 desenvolvido durante uma sessão de brainstorming durante a FOO Camp, uma conferência na O�������Reilly Media. ���� um trabalho ainda em curso mas que mostra as várias ideias que irradiam do centro da Web.2.

Por exemplo, na primeira conferência de Web 2.0, em Outubro de 2004, na palestra de abertura, John Battele e eu fizemos uma lista preliminar de princ��pios. O primeiro deles era “A web como plataforma”. Entretanto esse também era o lema da empresa estrela da Web 1.0, a Netscape, que pegou fogo depois de uma inflamada batalha com a Microsoft. Al��m disso, dois dos nossos exemplos de Web 1.0, a Double Click e a Akamai, eram ambas pioneiras em tratar a rede como plataforma. Não é frequente as pessoas pensarem nelas como ���������serviços de rede��� mas, de facto, o primeiro serviço web amplamente distribuído foi o posicionador de anúncios, assim como também ocorreu com os mashups[3] (para usar um outro termo que vem ganhando terreno ultimamente). Cada anúncio em forma de banner é oferecido como um integra��ão sem fronteira aparente entre dois sítios web, ao apresentar uma página integrada ao leitor num outro computador.

A Akamai também trata a rede como plataforma e, num n��vel mais profundo da pilha, construindo um sistema de entrega de cache transparente que desafoga o congestionamento da banda larga.

Entretanto, esses pioneiros forneceram contrastes úteis porque os que entraram depois levaram ainda mais longe suas soluções para o mesmo problema, compreendendo mais a fundo a natureza da nova plataforma. Tanto a DoubleClick como a Akamai foram pioneiras da Web 2.0, entretanto também podemos ver como ������ poss��vel compreender mais sobre as possibilidades através da adopção de padrões adicionais de design Web 2.0.

Vamos aprofundar cada um desses tr��������s casos, trazendo à tona alguns dos elementos essenciais de diferença.

Netscape versus Google

Se a Netskape era o exemplo padrão para a Web 1.0, a Google é, com toda certeza, o padrão para a Web 2.0, quanto mais não seja por os respectivos lan��amentos na bolsa de valores terem-se tornado acontecimentos determinantes para cada uma de suas eras. Vamos, portanto, começar com uma comparação entre essas duas companhias e seus posicionamentos.

A Netscape definiu ���a web como plataforma����������� em termos do velho paradigma de software: seu produto bandeira era o navegador – uma aplica����������o para desktop – e sua estratégia era usar seu domínio no mercado de navegadores para construir um mercado de altos preços para produtos servidores. O controle sobre os padrões para a exibição de conteúdo e aplica��ões no navegador, em tese, daria à Netskape o tipo de poder de mercado que a Microsoft desfrutava no mercado de PCs. Semelhante ao modo como a noç����o de “carruagem sem cavalos” apresentava o autom������������vel como uma extens����o de algo familiar, a Netscape promoveu um webtop para substituir o desktop e planeou povoar este webtop com atualiza����ões de informação e mini-aplicações empurradas para o webtop por fornecedores de informa��ão que comprariam os servidores da Netscape.

No fim, tanto os navegadores como os servidores web acabaram convertendo-se em banalidades indiferenciadas e o valor dirigiu-se para os serviços oferecidos via plataforma web. A Google, ao contrário, come��ou sua vida como uma aplicação nativa da web, nunca foi vendida nem empacotada mas oferecida como um serviço pelo qual os utilizadores pagavam directa ou indirectamente. Nenhuma das armadilhas da velha indústria de software estava presente. Não havia prazos marcados para o lan��amento de software, apenas aperfeiçoamentos contínuos. Nada de licenças ou vendas, apenas uso. Nada de convers��es para diferentes plataformas para que os utilizadores pudessem re-adquirir o software para o mesmo equipamento de sempre, apenas uma colecção altamente re-dimensionável de PCs de linha branca executando, em sistemas operativos de código aberto, programas e ferramentas endógenos que nunca serão vistos por ninguém fora da companhia.

No fundo, a Google requer uma compet��ncia de que a Netscape nunca precisou: gestão de base de dados. A Google não se limita a uma colecção de ferramentas de software, é uma base de dados especializada. Sem os dados, as ferramentas são in��teis; sem o software, não se consegue gerir os dados. Licen��a de software e controle sobre os APIs[4] – a alavanca de poder na era anterior ������������� tornam-se irrelevantes porque o software não precisa mais ser distribuído mas apenas executado e também porque sem a habilidade para recolher e gerir os dados, o software tem pouca utilidade. Na verdade, o valor do software �� proporcional à escala e dinamismo dos dados que ele ajuda a gerir.

O serviço da Google não �� um servidor – embora ele seja prestado através de uma maciça colec����ão de servidores de Internet –, nem um navegador ��� embora seja experimentado pelo utilizador dentro do navegador. Nem o servi����������������o de busca que ���� o seu produto-bandeira sequer hospeda o conte��do que ele permite ao cliente encontrar. Muito parecido com um telefonema, que acontece não apenas nos aparelhos em cada extremo da ligação mas na rede entre eles, a Google acontece no espaço entre navegador e ferramenta de busca, e o servidor de conteúdo de destino, como um possibilitador ou intermediário entre o(a) utilizador(a) e a sua experiência online.

Ainda que, tanto a Netscape como a Google, possam ser descritas como companhias de software, fica evidente que a Netscape pertencia ao mesmo mundo de software que Lotus, Microsoft, Oracle, SAP e outras companhias que tiveram seu início durante a revolução do software dos anos oitenta, enquanto pares do Google são outras aplicações de Internet como eBay, Amazon, Napster e, sim, DoubleClick e Akamai.

DoubleClick versus Overture e AdSense

Como a Google, a DoubleClick é um verdadeir bébé  da era da Internet. Ela funciona como um servi������o, tem como competência principal a gestão de dados e, como observado acima, foi uma pioneira em serviços web, muito antes que os serviços web sequer tivessem um nome. Entretanto, no fim de contas, a DoubleClick foi limitada pelo seu modelo de neg����cios. Ela embarcou na noç����o dos anos noventa de que a rede tinha a ver com publicação e n��o com participaç��o; os anunciantes, não os consumidores �� que estariam no comando;que o tamanho importava e que a internet estava sendo cada vez mais dominada pelos principais s������tios web, conforme os n��meros da MediaMetrix e outras companhias de medidas de pontos de anúncios da rede.

 

Como resultado, a DoubleClick orgulhosamente menciona no seu sítio “mais de 2000 implementações bem sucedidas” do seu software. A Yahoo! Search Marketing (antiga Overture) e a Google AdSense, ao contr��rio, cada uma delas j������������ serve centenas de milhares de anunciantes.

O sucesso da Overture e da Google decorre da compreens������o daquilo a que Chris Anderson se refere com “A Cauda Longa”, o poder colectivo de pequenos s��������tios que constituem a maior parte do conte��do da rede. As ofertas da DoubleClick requerem um contrato formal de venda, limitando seu mercado aos poucos milhares de grandes s��tios da rede. Overture e Google calcularam como tornar possível a coloca��ão de um anúncio em praticamente qualquer página da rede. E, mais ainda, evitaram os formatos tradicionais de anúncio tais como os banners e os popups em favor de textos de an��ncio minimamente invasivos, relacionados ao contexto e amigáveis para o consumidor.

A lição da Web 2.0: usar o auto-serviço do consumidor e algoritmos de gestão de dados como alavanca para atingir a rede em toda sua extensão (e não apenas o centro) até à cauda longa e n������o apenas na cabeça.

image002 Não surpreende pois que outras histórias de sucesso da Web 2.0 demonstrem este mesmo tipo de comportamento. A eBay possibilita transacções ocasionais de poucos d����lares entre pessoas físicas, actuando como um intermediário mecânico. A Napster (embora fechada por razões de ordem legal) formou a sua rede não com a construç��o de um banco centralizado de m��sicas mas montando um sistema, de tal forma distribuído, que qualquer descarregador também se tornava num servidor e assim aumentava a rede.

Akamai versus BitTorrent

Tal como a DoubleClick, a Akamai est�������� optimizada para fazer negócios com a cabeça, não com a cauda, com o centro, n����o com as franjas. Embora beneficie os indivíduos da periferia ao facilitar seu acesso aos sítios de alta procura do centro, ela retira o seu lucro dos sítios centrais.

A BitTorrent, como outras pioneiras do movimento P2P[5], assume uma abordagem radical na descentralização da internet. Cada cliente também é um servidor;arquivos são desmontados em fragmentos que podem ser fornecidos de múltiplas localizaç��es, de forma transparente, empregando a rede de descarregadores para fornecerem tanto largura de banda como dados para outros utilizadores. Na verdade, quanto mais popular for o ficheiro mais rapidamente pode ser servido na medida em que há mais utilizadores fornecendo largura de banda e fragmentos do ficheiro completo.

A BitTorrent, portanto, demonstra um princípio chave da Web 2.0: o servi������o fica automaticamente melhor quanto mais forem os utilizadores que dele fazem uso. Enquanto a Akamai precisa adicionar servidores para melhorar o serviço, cada consumidor da BitTorrent investe os seus próprios recursos em benefício da comunidade. Existe uma �����������arquitectura de participação��� implícita, uma ��tica de cooperaç��o embutida pela qual o serviço actua, primariamente, como um intermedi��rio inteligente que conecta as pontas entre si e combina o poder dos próprios utilizadores.

2. Tirando partido da inteligência colectiva

O principal princípio por detrás do sucesso dos gigantes nascidos na era Web 1.0 que sobreviveram para liderar a era Web 2.0 parece ser porque eles souberam aproveitar o poder que a rede tem de tirar partido da inteligência colectiva:

·      Hiperligações s��o o fundamento da rede. �� medida que os utilizadores adicionam conteúdo e sítios novos, esses passam a integrar a estrutura da rede à medida que outros utilizadores descobrem o conteúdo e se conectam a ele. Do mesmo modo que se formam sinapses no cérebro ������� com as associa��������ões fortalecendo-se em fun��ão da repeti��ão ou da intensidade – a rede de conexões cresce organicamente, como resultado da actividade colectiva de todos os utilizadores da rede.

��      A Yahoo!, a primeira grande história de sucesso na Internet, nasceu como um catálogo ou direct��rio de links, uma agregação do melhor trabalho de milhares e, depois, de milhões de utilizadores da rede. Apesar da Yahoo!, desde ent������o, ter entrado no negócio de cria������������ão de vários tipos de conte����do, seu papel como portal de entrada para o trabalho colectivo dos utilizadores da rede continua a ser o centro do seu valor.

��      A entrada da Google na ����rea da pesquisa, que rapidamente a transformou em líder indiscutível nesse mercado, foi o PageRank, um método de fornecer melhores resultados de busca, usando a estrutura de links da rede, ao invés de s�� as características dos documentos.

��      O produto da eBay é a actividade colectiva de todos os seus utilizadores;como a pr��pria web, a eBay cresce organicamente em resposta à actividade do utilizador e o papel da companhia é o de possibilitadora de um contexto em que essa actividade do utilizador possa acontecer. Além disso, a vantagem competitiva da eBay deve-se, quase que totalmente, à massa cr����tica de compradores e vendedores tornando significativamente menos atraente qualquer novo concorrente que ofere��a servi��os semelhantes.

·      a Amazon vende os mesmos produtos que concorrentes como Barnesandnoble.com e recebe dos seus fornecedores as mesmas descri������es dos produtos, imagens de capa e conteúdo editorial. Mas a Amazon desenvolveu uma ciência sobre o envolvimento do utilizador. Ela tem infinitamente mais avaliações de utilizadores, convites para participar de várias formas em virtualmente todas as páginas – e, ainda mais importante ��� usa a actividade do utilizador para produzir melhores resultados de busca. Enquanto uma busca da BarnesandNoble.com vai provavelmente levar a resultados encabe����ados pelos produtos da pr��pria companhia ou patrocinados, os da Amazon sempre apresentam em primeiro lugar os “mais populares���, uma computação em tempo real baseada não apenas em vendas mas em outros factores que os conhecedores da Amazon chamam de �����fluxo” em torno dos produtos. Contando com a participação do utilizador em escala muitíssimo maior, não surpreende que também as vendas da Amazon suplantem as dos concorrentes.

Actualmente, as companhias inovadoras que captaram esse insight, levando-o talvez ainda mais longe, estão deixando sua marca na rede:

·      Wikipedia, uma enciclopédia online baseada na noç��o duvidosa de que um verbete pode se adicionado por qualquer utilizador da rede e editado por qualquer um outro, é uma experiência de confiança radical, que aplica à criação de conteúdo o ditado de Eric Raymond (originalmente cunhado no contexto de software aberto) de que “com um número suficiente de olhos, todos os bugs tornam-se vis������veis”. A Wikipedia já est���� entre os sítios Top 100 e muitos acreditam que logo estará entre os dez primeiros. Trata-se de uma profunda mudança na dinâmica de cria����ão de conteúdo!

��      Sítios como o del.icio.us e o Flickr, duas companhias que recentemente vêm recebendo bastante atenção, inauguraram um conceito que alguns chamam de “folksonomia����� (em oposi������������������o a taxonomia), um estilo de categoriza��ão colaborativa de sítios que emprega palavras chave livremente escolhidas, frequentemente chamadas de tags[6]. O uso de tags permite associa������es múltiplas e sobrepostas como as que o pr��prio cérebro usa ao inv������s de categorias r��gidas. No exemplo típico, uma fotografia de um cachorrinho no Flickr pode ser etiquetada tanto como �����cachorrinho” ou como ���fofinho” – permitindo ser localizada através de eixos de actividade de utilizador que foram gerados naturalmente.

·      Produtos colaborativos de filtragem de spam como o Cloudmark agregam as decisões individuais de utilizadores de e-mail sobre o que ������ e o que não ������ spam, com melhor desempenho do que sistemas baseados na análise das próprias mensagens.

��      É um tru��smo que os maiores casos de sucesso na internet n����������o anunciaram seus produtos. Sua utilização se deu por marketing viral, isto é, recomendações que partiram de utilizador para utilizador. Pode-se ter quase certeza de que, se um sítio ou produto depende de publicidade para se tornar conhecido, não é Web 2.0.

·      Até mesmo muito da infra-estrutura da rede ��� incluindo Linux, Apache, MySQL, e de código Perl, PHP ou Pyton em uso na maioria dos servidores web ����� apoiam-se nos métodos de produção comunitária de código aberto, eles pr��������prios um exemplo de intelig��ncia colectiva possibilitada pela rede. Há mais de cem mil projectos de software aberto listados no SourceForge.net. Qualquer pessoa pode adicionar um projecto, pode descarregar e usar o código, e novos projectos migram da periferia para o centro como resultado de utilizadores que os fazem funcionar, num processo orgânico de adopção de software baseado quase unicamente no marketing viral.

image003 A lição: Efeitos na rede resultantes das contribuições dos utilizadores são a chave para a supremacia de mercado na era Web 2.0.

Blogues e a sabedoria das massas

Um dos aspectos mais intensamente comentados da era Web 2.0 é o crescimento dos blogues. P��ginas pessoais sempre existiram desde os primórdios da rede, e o di��rio pessoal e a coluna de opinião diária existiam muito antes disso, portanto porquê tanto alvoroço? No seu aspecto mais básico, um blogue é apenas uma página pessoal em formato de diário. Mas, como Rich Skrenta assinala, a organiza��������o cronológica de um blogue “parece uma diferen����a trivial, mas puxa uma cadeia completamente diferente de distribui����o, de publicidade e de valor”. Um dos factores que fez diferença foi a tecnologia chamada RSS.

O RSS �� o avanço mais significativo na arquitectura básica da rede desde que os primeiros hackers perceberam que a CGI[7] podia ser usada para criar sítios baseados em bases de dados. Permite que alguém não apenas aceda a uma página mas faça uma assinatura sendo notificado cada vez que haja mudan��as na página. Skrenta chama a isso de ���������������rede increment����vel�����. Outros a chamam de “rede viva”.

Agora, é claro, �������sítios dinâmicos����������������� (isto é, s��tios baseados em bases de dados com conteúdo dinamicamente gerado) substituíram as páginas estáticas há mais de dez anos. O que ���������������� dinâmico em termos da rede viva não são apenas as páginas mas os links. Espera-se que um link para um blogue conduza a uma página em permanente mudan������a, com �����permalinks[8] para qualquer entrada individual e notificação de cada mudança. Um link RSS ������������, portanto, muito mais forte do que, por exemplo, um favorito ou um link para uma única página. O RSS tamb����m significa que o navegador de rede não ������ o único meio de se ver uma página. Enquanto alguns agregadores RSS, como o Bloglines são baseados na rede, outros são clientes desktop e ainda outros permitem que utilizadores de dispositivos port��teis assinem o conteúdo constantemente actualizado.

O RSS est�� sendo actualmente utilizado para enviar n��o apenas avisos de actualizações de blogues mas também todos os tipos de actualização de dados, incluindo cota����������������ões da bolsa, previs������o do tempo e disponibilidade de fotos. Esse uso ����, na verdade, uma de suas raízes: o RSS nasceu em 1997, fruto da confluência da tecnologia �����Really Simple Syndication��������� de Dave Winer – usada para enviar actualizaç��es de blogues ��� e o ���Rich Site Summary” da Netscape que permitia aos utilizadores criar páginas pessoais personalizadas no Netscape, com fluxos de dados regularmente actualizados.

A Netscape desinteressou-se, e a tecnologia foi levada adiante pelo pioneiro de blogues Userland, a companhia de Winer. Na actual safra de aplicações percebe-se, entretanto, a herança de ambos os pais.

Mas o RSS �� apenas um dos aspectos que faz o blogue ser diferente de uma p��gina normal da rede. Tom Coates chama a atenção para a importância do permalink: O permalink pode parecer, agora, uma peça trivial de funcionalidade mas foi, na verdade, o dispositivo que transformou os blogues, de um fenómeno que facilitava a publicação de conte��do numa confusão envolvendo conversas entre comunidades sobrepostas. Pela primeira vez, tornou-se relativamente fácil apontar e discutir especificamente um post num sítio pessoal. Iniciavam-se discussões. O chat emergia. E como resultado, amizades formaram-se ou reforçaram-se. O permalink foi a primeira ����������������� e mais bem sucedida ��������� tentativa de se construirem pontes entre blogues. De muitas maneiras, a combina��������o de RSS e permalinks acrescenta ao http ����� o protocolo web – muitas das caracter��sticas do NNTP – o Network News Transport Protocol (Usenet). A �����������blogosfera” pode ser pensada como um novo meio de comunicaç������o entre utilizadores, equivalente ������ Usenet e outros fóruns que foram os pontos de encontro dos primeiros tempos da Internet. As pessoas podem não apenas assinar os sítios umas das outras ����� obtendo f��cil acesso aos comentários individuais de uma página ��� mas também – via mecanismos como trackbacks[9] ����������� podem ver quando alguém cria links para a sua p������������gina e podem responder, quer criando links recíprocos, quer adicionando comentários.

Curiosamente, links de duplo sentido eram o objectivo dos primeiros sistemas de hipertexto como o Xanadu. Os puristas do hipertexto apaludiram os trackbacks como um passo na direcção dos links de duplo sentido. Mas, observe-se que os trackbacks não são propriamente de duplo sentido; na verdade, eles são links de um s�� sentido (potencialmente) simétricos que criam um efeito de links de duplo sentido. A diferen��a pode parecer subtil mas, na pr��������tica, �� enorme. Sistemas de redes sociais como Friendster, Orkut e LinkedIn – que requerem permissão do receptor a fim de que uma conexão possa ser criada – carecem da mesma “escalabilidade” que a web. Como assinalou Caterina Fake, co-fundadora do serviço de partilha de fotos Flickr, a atenção depende da coincidência para ser recíproca. (O Flickr, portanto, permite aos utilizadores estabelecer listas de acompanhamento ��� qualquer utilizador pode assinar o fluxo de fotografias de qualquer outro, via RSS. O acesso é notificado mas o utilizador não precisa autorizar a conexão).

Se uma parte essencial da Web 2.0 é tirar partido da intelig��ncia colectiva, transformando a web numa esp��cie de c��rebro global, a blogosfera equivale a um constante cavaqueira mental que tem lugar na parte frontal do cérebro, a voz que todos ouvimos nas nossas cabeças. Pode não reflectir a estrutura mais profunda do cérebro ��� frequentemente inconsciente – mas equivale ao pensamento consciente. E, como reflexo do pensamento consciente e da atenção, a blogosfera começou a exercer um poderoso efeito.

Em primeiro lugar, pelo fato de as ferramentas de busca usarem a estrutura de links para predizer páginas importantes, os blogueiros – como os mais produtivos e actualizados utilizadores de links ����� exercem um peso desproporcional nos resultados dos mecanismos de busca. Em segundo lugar, o facto da comunidade de blogues ser tão auto-referencial – com blogueiros focalizando a atenção em outros blogueiros ��� aumenta sua visibilidade e poder. A “câmara de eco” condenada pelos críticos funciona também como amplificador.

Se fossem meramente um amplificador, os blogues não despertariam nenhum interesse. Mas, como a Wikipedia, os blogues capitalizam a inteligência global como uma esp��cie de filtro. Entra em acção o que James Suriowecki chama de “a sabedoria das massas” e, do mesmo modo que o PageRank produz resultados melhores do que a análise de qualquer documento individual, a atenção colectiva da blogosfera selecciona o valor. Enquanto a m��dia tradicional[10] pode encarar os blogues como concorrentes, o que realmente incomoda é que a competiç��o é com a blogosfera global. N��o se trata apenas de uma competição entre sítios, mas uma competição entre modelos de negócio. O mundo da Web 2.0 é também o mundo que Dan Gillmor chama de ���nós, a mídia�������, um mundo em que ���os anteriormente designados audi��ncia” – n��������o umas poucas pessoas nos bastidores ������� decide o que �� importante.

3. Dados s��o o pr������ximo Intel Inside

Até hoje, toda a aplicaç��o importante da Internet tem-se apoiado num banco de dados especializado: robô de indexa��ão do Google, diret����rio (e robô) do Yahoo!, banco de dados de produtos da Amazon, banco de dados de produtos e vendedores da eBay, banco de dados de mapas da MapQuest, banco de dados “distribuído��������� de músícas da Napster. No ano passado, em conversa pessoal, Hal Varian comentou que �����o SQL[11] é o novo HTML”. O gest��������o de bancos de dados é a nova compet��ncia central das companhias Web 2.0, de tal modo que temos, ������s vezes, nos referido a esses aplicaç��es como “infoware” ao invés de simplesmente software.

Este facto coloca uma quest��������o central: a quem pertencem os dados?

Na era da Internet, j�� se conhecem v��rios casos em que o controle sobre um banco de dados levou ao controle do mercado e enormes retornos financeiros. O monop��lio sobre o registro de nomes de dom��nios, inicialmente concedido pelo governo[12] à Network Solutions (mais tarde comprada pela Verisign), foi um dos primeiros grandes negócios lucrativos da Internet. Enquanto argumentamos que vantagens de negócios pelo controle de APIs[13] �� muito mais difícil nos tempos da internet, o mesmo não se dá em rela������������ão ao controle sobre fontes de dados, especialmente quando for caro criar tais fontes ou quando elas permitirem retornos crescentes via efeitos de internet.

Leia os avisos de copyright no rodapé de todos os mapas gerado pela MapQuest, maps.yahoo.com, maps.msn.com, ou maps.google.com e encontrará a observação: ���Maps copyright NavTeq, Tele Atlas” ou, a partir dos novos serviços de imagens de satélite, “Images copyright Digital Globe�������. Essas companhias fizeram investimentos substanciais nos seus bancos de dados (só a NavTeq diz ter investido 750 milhões de dólares para construir seu banco de dados de endere������os e indica��������ões de ruas. A Digital Globe gastou 500 milh����es de dólares para lançar seu próprio sat��lite visando aperfeiçoar as imagens fornecidas pelo governo). A NavTeq chegou ao ponto de imitar a conhecida logomarca “Intel Inside��� da Intel: automóveis com sistemas de navega��ão recebem a marca “NavTeq Onboard�������. Os dados são de fato o “Intel Inside����� dessas aplicaç������es, o único componente essencial em sistemas cuja infra-estrutura de software �� principalmente de c����digo aberto e de praticamente todos os outros modos indiferenciado.

Actualmente a disputa acesa que tem lugar na ������rea dos mapas na web demonstra como a falta de percep����ão sobre a importância de possuir os dados centrais de uma aplicação poderá, eventualmente, enfraquecer o poder competitivo. A MapQuest foi pioneira na categoria de mapas, em 1995. Entretanto, quando a Yahoo!, a Microsoft e mais recentemente a Google decidiram entrar nesse mercado, elas conseguiram facilmente oferecer uma aplicaç����o concorrente simplesmente obtendo licença sobre os mesmos dados.

Compare-se, entretanto, a posiç��o da Amazon.com. Tal como os concorrentes, como a Barnesandnoble.com, o seu banco de dados originalmente veio da R.R. Bowker que fornece os registros ISBN[14]. Entretanto, de modo diferente da MapQuest, a Amazon foi implacável na melhoria dos dados, acrescentando informações fornecidas pelas editoras tais como imagens da capa, sumário, ��ndice e acesso a segmentos seleccionados dos livros. E, o que foi mais importante, ela convidou e convenceu seus utilizadores a fazerem coment����rios sobre os dados de tal forma que, depois de dez anos, a Amazon.com – e n����o a Bowker ����� é a principal fonte de dados bibliográficos sobre livros, refer��ncia para estudiosos e bibliotec������rios, tanto como para consumidores. Também introduziu seu próprio código de identificaç��o, o ASIN[15] – que corresponde ao ISBN quando este existe e/ou cria um código equivalente para produtos sem codificação. Efectivamente, a Amazon “abraçou e ampliou��� seus fornecedores de dados.

Imagine se a MapQuest tivesse feito o mesmo: envolver os seus utilizadores no comentário dos mapas e indicações, acrescentando camadas de valor. Teria sido muito mais dif������cil para os concorrentes entrarem no mercado apenas com a licen��a sobre o banco de dados.

A chegada recente do Google Maps servirá de laboratório vivo para a concorrência entre vendedores de aplica����ões e seus fornecedores de dados. O modelo ligeiro de programaç����o do Google levou �� criaç����o de numerosos serviços de valor agregado na forma de mashups que ligam o Google Maps a outras fontes de dados acessíveis via internet. O exemplo por excel��ncia de um desses mashups �� a housingmaps.com, de Paul Rademacher, que reúne a Google Maps com a Craiglist – dados sobre aluguer de apartamentos e venda de casas ����� criando uma ferramenta interactiva de busca de imobiliário.

No momento, esses mashups s��o ainda, sobretudo, experiências inovadoras feitas por hackers, mas que logo ser��o seguidas por iniciativas empresariais. Na verdade, já se pode ver que, pelo menos para uma classe de programadores, a Google retirou da Navteq o papel de fonte de dados e se interp����s como intermediário privilegiado. Nos próximos anos, esperamos assistir a disputas entre fornecedores de dados e vendedores de aplicações ������ medida em que vai percebendo a importância de certas classes de dados como blocos de constru��ão para as aplicaç����es Web 2.0.

Já começou a corrida pela posse de certa classe de dados centrais: localiza��ão, identidade, calendário de eventos públicos, identificadores de produtos e códigos. Em muitos casos ����� quando o custo de cria��ão dos dados for significativo – poderá haver uma oportunidade para um jogo estilo Intel Inside, com uma ��nica fonte de dados. Em outros, o vencedor ser�� a companhia que primeiro atingir uma massa crítica de dados através da participaç������o de utilizadores, e transformar esses dados agregados num serviço.

Por exemplo, na área de identidade, PayPal, Amazon���s 1-click e os milhões de utilizadores de sistemas de comunicação podem, todos eles, disputar legitimamente a construção de um banco de dados de identidade que alcance toda a rede. (Sob esse ponto de vista, a recente tentativa da Google de usar os números de telefones celulares como identificadores para as contas de Gmail pode ser um passo na direcç������������o de abranger e expandir o sistema telefónico.) Enquanto isso, novas empresas como a Sxip estão explorando o potencial de identidade distribu��da na busca de um tipo de ���1-click distribuído” que fornecer�� um subsistema de identidade Web 2.0 sem costura visível. Na área de calendários, o EVDB[16] é uma tentativa de construir o maior calendário partilhado do mundo através de uma arquitectura de participaç��o de estilo wiki. Enquanto n����o sai o veredicto sobre o sucesso de nenhuma empresa ou abordagem em particular, é claro que normas e soluções nessas áreas ����� que efectivamente transformem certas classes de dados em sistemas fi����veis do ���sistema operativo da internet” – tornarão possível a pr��xima geração de aplicações.

Ainda um outro ponto deve ser considerado em relaç��o a dados: a preocupa����������������o do utilizador com privacidade e direitos sobre seus dados próprios. Em muitos das aplicaç����������es do in��cio da era web, o copyright ���� muito superficialmente garantido. Por exemplo, a Amazon declara direitos sobre qualquer avalia����ão registada no seu serviço mas, na aus��ncia de fiscalização, as pessoas podem colocar a mesma avaliaç��o noutro lugar. Entretanto, à medida que as companhias começam a perceber que o controle sobre os dados pode ser sua principal fonte de vantagem competitiva, poderemos testemunhar um aumento nas tentativas de control����-los.

Da mesma maneira que o crescimento do software proprietário levou ao movimento do software livre, h�� a expectativa de que, na próxima década, o crescimento dos bancos de dados proprietários resulte num movimento �����Free Data”. Os primeiros sinais dessa tend��ncia inconformista j���� podem ser notados nos projectos de dados abertos como Wikipedia, Creative Commons e em projectos de software – como o Greasemonkey ������� que permitem aos utilizadores assumir o controle de como os dados aparecem no seu computador.

4. O fim do ciclo de lan��amentos de software

Como observado acima quando da discuss��o Google versus Netscape, uma das caracter��sticas que define a era software da internet é que o software é apresentado como um servi����o e não um produto. Esse facto acarreta mudan��as fundamentais no modelo de negócios da companhia:

1.      As opera��ões precisam se tornar uma competência central. A competência em desenvolvimento de produto da Google ou da Yahoo! precisa estar no mesmo nível da competência das operações do dia-a-dia. A mudança do software como produto para software como serviço é tão fundamental que o software deixará de funcionar a n��o ser que receba manutenção diária. A Google tem que percorrer a rede continuamente e actualizar seus índices, filtrar o spam de links e outras tentativas de influenciar os seus resultados, responder contínua e dinamicamente a centenas de milhões de inquéritos ass����ncronos dos utilizadores e, simultaneamente, estabelecer a correspond������ncia entre elas e a publicidade contextual.

N������o é por acaso que o sistema de administra����ão da Google, suas técnicas de rede e de balanço de carga seja, talvez, segredo mais bem guardado do que os seus algoritmos de busca. O sucesso da Google em automatizar tais processos é um factor chave da sua vantagem, em termos de custo, sobre os concorrentes.

Tamb����m não �� por acaso que linguagens de script tais como Perl, Python, PHP e, agora, a Ruby sejam t����������o importantes para as companhias web 2.0. O Perl foi notavelmente descrito por Hassan Schroeder, o primeiro webmaster da Sun, como a “Fita-Cola da internet[17]���. Linguagens dinâmicas (frequentemente chamadas de linguagens de script e olhadas com desdém pelos engenheiros de software da era dos artefactos programáveis) são a ferramenta preferida dos administradores de sistemas e de rede, assim como dos programadores de aplicaç����es para a construção de sistemas dinâmicos que requerem altera����ão constante.

2.      Utilizadores devem ser tratados como co-programadores, em referência ��s pr��ticas de desenvolvimento do c��digo aberto (mesmo se for pouco provável que o software em questão seja lançado sob uma licença de c������digo aberto). O lema do código aberto �������lançar cedo e lançar sempre” transformou-se numa posi��ão ainda mais radical, ���o beta perpétuo�����, em que o produto é desenvolvido em aberto, com novos recursos surgindo a cada mês, semana ou mesmo dia. N����o é por acaso que se pode esperar que serviços tais como Gmail, GoogleMaps, Flickr, del.icio.us e outros do mesmo tipo carreguem o logo ���������������������Beta” por anos a fio.

A monitorização em tempo real do comportamento do utilizador, para aferir exactamente quais e como os novos recursos est������o sendo usados, torna-se, portanto, uma outra importante competência a ser exigida. Um programador web de um grande serviço online comentou: ���Todos os dias disponibilizamos dois ou três recursos nalgum lugar do sítio e se os utilizadores n��o os utilizam, nós os removemos. Se eles agradam, nós os implementamos no sítio todo.”

Carl Henderson, o principal programador do Flickr, recentemente revelou que eles implementam novos recursos a cada meia hora. Este é, claramente, um modelo de desenvolvimento radicalmente diferente!

Embora nem todas as aplicaç����es web sejam desenvolvidas em estilo tão extreme como o do Flickr, quase todas têm um ciclo de desenvolvimento radicalmente diferente de qualquer coisa da era PC ou cliente-servidor. É por esta razão que um editorial recente da ZDnet concluiu que a Microsoft n����o será capaz de vencer a Google: “O modelo de neg��cios da Microsoft depende de todos fazerem um upgrade do seu sistema operativo (e restante ambiente computacional) a cada dois ou três anos. O da Google depende de todos explorarem o que há de novo em seu ambiente computacional diariamente.”

Enquanto que a Microsoft tem demonstrado uma enorme capacidade para aprender com a concorr��ncia, e até super����-la, não há dúvida de que, desta vez, a competição vai exigir que ela (e, por extensão, todas as demais companhias de software existentes) se transforme num tipo de companhia profundamente diferente. Companhias nativas da Web 2.0 desfrutam de uma vantagem natural porque não precisam se se desfazer e ultrapassar antigos padr������es e normas (e os correspondentes modelos de negócio e fluxos de lucros).

image004 5. Modelos ligeiros de programa������ão

Assim que a ideia de serviços web ficou popular, as grandes companhias entraram na refrega com um conjunto complexo de serviços web, concebidos para criar ambientes de programa��ão altamente fi��veis para aplicaç������es distribuídas. Entretanto, da mesma forma que a web teve êxito exactamente porque subverteu grande parte da teoria de hipertexto, ao substituir um pragmatismo simples por um desenho ideal, o RSS talvez se tenha tornado o servi����o web mais amplamente distribuído, provavelmente devido à sua simplicidade, enquanto os complexos serviços web corporativos ainda precisam alcançar ampla distribui��������o. Do mesmo modo, os serviços web da Amazon.com são fornecidos de duas formas: uma que segue os formalismos do conjunto de servi����os web SOAP (Simple Object Access Protocol), e a outra simplesmente fornecendo dados XML via HTTP, através de uma abordagem ligeira, ����s vezes chamada de ReST (Representational State Transfer).

Enquanto conexões B2B de alto valor (como as que ligam a Amazon a parceiros de retalho como a ToysRUs) usam SOAP, a Amazon informa que 95% do seu uso �� de serviço leve do tipo ReST.

Essa mesma procura por simplicidade pode ser encontrada noutros serviços web “orgânicos”. O recente lançamento do Google Maps é um exemplo. Sua interface simples do tipo AJAX (Javascript e XML) foi rapidamente decifrada por hackers que passaram, então, a remisturar os dados formando novos serviços.

Serviços de mapas já estavam dispon����veis na web h�� algum tempo em fornecedores de GIS[18] tais como ESRI, MapQuest e Microsoft MapPoint. Mas o Google Maps causou uma revolu����o devido à sua simplicidade. Enquanto a experi������ncia com qualquer serviço web formal mantido por um fornecedor exigia um contrato formal entre as partes, o modo como o Google Maps foi implementado deixava os dados disponíveis e logo os hackers encontraram formas de reutilizá-los criativamente.

Existem aqui, várias lições significativas:

1.      Apoie modelos ligeiros de programaç����o que permitam a criação de sistemas ligeiramente acoplados. A complexidade do conjunto de serviços financiados por corporaç��������es é planeada para permitir acoplamento firme. Enquanto que em muitos casos, isso é necessário, muitos das aplicações mais interessantes podem, de facto, permanecer ligeiramente acopladas e até mesmo fr��geis. A mentalidade Web 2.0 é muito diferente da tradicional mentalidade IT[19]!

2.      Pense em sindicalizaç��o, não em coordenação. Servi��os web simples, como o RSS e os baseados no sistema ReST têm a ver com sindicalizar os dados para o exterior e não em controlar o que acontece com eles quando chegam ao outro lado da conexão. Esta ideia ���� fundamental para a pr��pria internet, um reflexo do que se conhece por princípio ponto-a-ponto.

3.      Projecte para ���hackealilidade” e �����remixabilidade”. Sistemas como a web original, RSS e AJAX têm em comum fracas barreiras à reutilização. Grande parte dos programas úteis s��o de código aberto e, mesmo quando não o são, há pouco esforço no sentido de protec��ão à propriedade intelectual. A opç������o do navegador web �����View Source������� possibilitou que qualquer utilizador copiasse a página web de qualquer outro; o RSS foi projectado para dar poder ao utilizador de ver o conteúdo que ele quer e quando quer, sem precisar da autoriza��������ão do fornecedor da informação; os servi��os web de maior sucesso s����o os que foram mais fáceis de serem levados em direcções nunca imaginadas por seus criadores. A expressão ���alguns direitos reservados”, popularizada pelo Creative Commons para contrastar com o mais típico “todos os direitos reservados���, é um indicativo útil.

Inova�o na montagem

Modelos de neg��cio ligeiros são um concomitante natural de programação ligeira e conex����es ligeiras. A mentalidade Web 2.0 é boa para a reutilização. Um serviço novo como o housingmaps.com foi construído simplesmente pela junção de dois outros j���� existentes. O housingmaps.com não tem (ainda) um modelo de negócio mas, para muitos serviços de pequena escala, a Google AdSense (ou talvez as comissões de afiliados da Amazon, ou ambos) forneça o equivalente a um modelo satisfatório de remuneração.

Estes exemplos propiciam um insight em relação a outro princ��pio-chave da web 2.0 que chamamos de “inovação na montagem���. Quando os componentes indiferenciados s����o abundantes, pode-se criar valor simplesmente pela sua montagem de formas novas ou eficientes. Do mesmo modo que a revolução PC criou muitas oportunidades de inovação na montagem de hardware indiferenciado, com companhias como a Dell criando uma ciência em cima dessa montagem e, portanto, derrotando companhias cujos modelos de negócio precisavam de inova����ão em desenvolvimento de produto, acreditamos que a Web 2.0 irá criar oportunidades para que companhias superem a concorrência ao serem melhores no aproveitamento e integração de servi����os oferecidos por outras.

6. Software multi-dispositivo

Uma outra característica Web 2.0 que merece men��������������o �� o facto de que ela já não se limita à plataforma PC. Ao deixar a Microsoft, o programador de longa data Dave Stutz deixou o conselho que “Software ������til que for escrito acima do nível do dispositivo único proporcionará altas margens por um bom tempo.���

Naturalmente, qualquer aplica��ão web pode ser vista como software com mais de um dispositivo. Afinal de contas, até a aplica��ão mais simples envolve pelo menos dois computadores: o que hospeda o servidor web e o que hospeda o navegador. E, como já dissemos, o desenvolvimento da web como plataforma estende essa ideia a aplica������������es sintéticas compostas de serviços fornecidos por m��ltiplos computadores. Entretanto, do mesmo modo como acontece com muitas áreas Web 2.0 – onde o “2.0” não é novidade e sim uma realiza������ão mais plena do verdadeiro potencial da plataforma web – esta express����o nos fornece um insight-chave sobre como projectar aplica����ões e serviços para a nova plataforma.

Até hoje, o iTunes é o melhor exemplo desse princ������pio. Ele vai directamente do dispositivo port��������til até uma maciça infra-estrutura web, com o PC actuando como cache e estaç��o de controle local. Houve v��rias tentativas pr��vias de levar conteúdo web a dispositivos portáteis, mas a combinação iPod/iTunes é uma das primeiras aplicações projectadas do zero para atingir m������ltiplos dispositivos. O TiVo é um outro bom exemplo.

O iTunes e o TiVo também servem para demonstrar muitos dos outros princípios centrais de Web 2.0. Não são aplicações web em si mas nivelam o poder da plataforma web, tornando-a uma parte integrante, quase invis��vel, da sua infra-estrutura. A gest����������o de dados é mais claramente o ponto central da oferta. S��o serviços e n��o aplicações empacotadas (embora, no caso do iTunes, possa ser usado como tal, gerindo apenas os dados locais do utilizador). Além disso, tanto TiVo como iTunes apresentam um uso crescente de inteligência colectiva, ainda que, nos dois casos, suas experiências estejam em guerra com o lobby da propriedade intelectual. Existe apenas uma limitada arquitectura de participação no iTunes embora o recente aparecimento dos podcasts traga uma mudança substancial para a equa������o.

Esta �� uma das ��reas de Web 2.0 onde esperamos ver algumas das maiores mudan������as, à medida que for aumentando o n��mero de dispositivos conectados à nova plataforma. Quais as aplicações possíveis quando nossos telefones e nossos automóveis n��o est��������o consumindo mas, enviando dados? A monitorização de tr����fego em tempo real, flash mobs e jornalismo comunitário são apenas alguns dos sinais que chamam a aten��ão para as capacidades da nova plataforma.

7. Experiência rica do utilizador

Desde o navegador Viola, de Pei Wei, em 1992, a web vem sendo usada para enviar mini-aplica����������ões e outros tipos de conte������do activo para dentro do navegador. A introdução do Java, em 1995, foi projectada em torno da entrega desses mini-aplica��ões. O JavaScript e, depois, o DHTML[20] foram introduzidos como formas ligeiras de prover ���programabilidade” e experiência rica do utilizador para o lado cliente. Há alguns anos, a Macromedia cunhou a expressão ���Rich Internet Applications�����[21] (que também foi aproveitada pela Laszlo Systems ��� concorrente de código aberto do Flash) para enfatizar a capacidade do Flash para entregar não apenas conte����do multimédia mas também experiências com aplica��ões de estilo GUI[22].

Entretanto, o potencial da web para enviar aplicaç������es de grande porte não se concretizou até que a Google introduziu o Gmail, rapidamente seguido pelo GoogleMaps – aplicaç��es web com experiência rica do utilizador e interactividade equivalente à do PC. A colec����o de tecnologias usada pela Google foi baptizada de AJAX[23], num artigo seminal de Jesse James Garret, da firma de web design Adaptative Path. Dizia ele: “AJAX não é uma tecnologia. S��o, na verdade, várias tecnologias, cada uma florescendo a seu modo, e reunindo-se em poderosas formas novas. AJAX incorpora:

  • Apresentações baseadas em padr��es usando XHTML e CSS;
  • Exibição e interacção din����������micos usando o “Document Object Model���������;
  • Troca e manipulação de dados usando XML e XSLT;
  • Recuperaç��������o de dados assíncronos usando XMLHttpRequest;
  • e JavaScript para juntar tudo”.

O AJAX também é um componente-chave de aplicações Web 2.0 como o Flickr ����� agora parte da Yahoo! –, as aplicaç��������������es basecamp e backpack do 37signals, assim como outras aplicaç��es Google como Gmail e Orkut. Estamos entrando num período sem precedentes de inovação na interface de utilizador, ���� medida em que os programadores web estão finalmente em condi��ões de construir aplicações web t��o ricas como as aplica����es locais dos PC.

image005 Curiosamente, muitas das capacidades que est����o sendo actualmente exploradas j�� estavam dispon��veis h�������� vários anos. No fim dos anos 90, tanto a Microsoft como a Netscape tinham ideia do tipo de capacidades que estão sendo, agora, finalmente concretizadas, mas a disputa sobre as normas a serem empregues dificultou as aplicações para múlti-navegadores. Foi só quando a Microsoft definitivamente ganhou a guerra e passou a haver, de fato, uma ��������nica norma de escrita para navegador, que esse tipo de aplicação se tornou poss��vel. E, apesar do Firefox ter reintroduzido a competição no mercado de navegadores, pelo menos até agora, n��o temos assistido à mesma disputa destrutiva sobre normas web, que deteve o progresso nos anos 90.

Esperamos ver muitas aplica��������ões web novas nos próximos anos, tanto as verdadeiramente novas, como ricas re-implementa��ões para web de aplicações PC. Até hoje, toda mudança de plataforma tamb����m criou oportunidades para uma mudança de liderança das aplica��ões dominantes da plataforma anterior.

O Gmail j������ produziu algumas inovações interessantes na área de e-mail, combinando os pontos fortes da web (acesso de qualquer parte, imensas capacidades de bancos de dados, possibilidades de busca) com interfaces de utilizador que se aproximam das interfaces PC em termos de usabilidade. Enquanto isso, outros clientes de e-mail na plataforma PC estão arranhando o problema pelo outro lado, adicionando IM[24] e capacidades presenciais.

Quão distantes estamos de um cliente de comunica������es integrado que combine o melhor do e-mail, IM e celular usando VoIP[25] para adicionar capacidades de voz às aplicações web? A corrida j�� começou.

������ fácil visualizar como a Web 2.0 também vai refazer o livro de endere����os. Um livro de endereços no estilo Web 2.0 iria tratar o livro de endereços local, do PC ou telefone, simplesmente como um cache dos contactos que você tivesse explicitamente pedido ao sistema para armazenar. Enquanto isso, um agente web de sincronização, do estilo Gmail, lembraria qualquer mensagem enviada ou recebida, todos os endereços de e-mail e números de telefone utilizados e iria construir redes sociais heur��sticas para decidir quais as alternativas a apresentar quando uma resposta não fosse localizada no cache local. Não encontrando ali a resposta, o sistema pesquisaria a rede social mais ampla.

Um editor de texto Web 2.0 suportaria a edição colaborativa no estilo wiki[26] e não apenas de documentos independentes. Mas tamb��m iria suportar a formata������������o rica que passamos a esperar de editores de texto no PC. O Writely é um bom exemplo de uma dessas aplica����������es, embora ainda não tenha muita aceitaç��o. A revolução Web 2.0 tamb��m n����������o se limitará a aplica��ões PC. A Salesforce.com mostra como a web pode ser usada para usar software como um serviço, em aplicações em escala empresarial como o CRM[27].

A oportunidade de concorrência para novos participantes está em abranger inteiramente o potencial da Web 2.0. As empresas que conseguirem irão criar aplicações que aprenderão com os seus utilizadores, usando uma arquitectura de participaç����o para obter vantagem poderosa não apenas na interface de software, mas na riqueza dos dados compartilhados.

Compet��������������ncias centrais das companhias Web 2.0

Ao explorar os sete princípios acima, enfatizamos alguns dos principais recursos Web 2.0. Cada um dos exemplos discutidos demonstra um ou mais desses sete princípios chave, mas pode não apresentar outros. Vamos encerrar, portanto, resumindo as que acreditamos serem as competências centrais das companhias Web 2.0:

  • Serviços e não software empacotado, com “escalabilidade������� de custos eficiente
  • Controle sobre fontes de dados únicas e dif��ceis de serem re-criadas e que ficam mais ricas quanto mais as pessoas as utilizarem
  • Confiança nos utilizadores como co-programadores
  • Agregaç����o de inteligência colectiva
  • Estimular a cauda longa através de auto-serviço para o cliente
  • Software para mais de um dispositivo
  • Interfaces de utilizador, modelos de desenvolvimento e modelos de negócios ligeiros

Da pr��xima vez que uma companhia reivindicar ser “Web 2.0”, compare suas características com a lista acima. Quanto mais pontos obtiverem, mais fará jus ao nome. Lembre-se, no entanto, que excelência nma área pode contar mais do que alguns pequenos passos em todas as sete.



[1] Publicado em O’Reilly (http://www.oreilly.com/) Copyright 2006 O’Reilly Media, Inc. Tradução: Miriam Medeiros. Revisão técnica: Julio Preuss. Novembro 2006, Adaptação para Portugu��������������s Ib����rico por J����lio Anjos e ….

[2] Presidente e CEO. O’Reilly Media, Inc., Tim@oreilly.com

[3] N.T. Mashup: aplica����ão web híbrido. Da Wikipedia: “Um mashup é um sítio web ou aplicação web que combina, numa experiência integrada (sem costura aparente), conteúdo de mais de uma fonte.

[4] N.T. Iniciais de Application Program Interface: Interface para Programação de Aplica����ões.

[5] N.T. Peer-to-Peer: Utilizador a utilizador.

[6] N.T. etiquetas

[7] N.T. Iniciais de Common Gateway Interface: Interface de Passagem Comum.

[8] N.T. Aglutina����������ão de Permanent Link.

[9] N.T. A traduç��������o literal seria ���seguir a pista”.

[10] N.T. Em inglês: mainstream media

[11] N.T. Iniciais para Structured Query Language: Linguagem de Questão Estruturada. Usa banco de dados na configuração de uma busca.

[12] N.T. Governo dos Estados Unidos.

[13] N.T. Iniciais de Application Program Interface: Interface para programação de aplicaç��es.

[14] N.T. Iniciais de International Standard Book Number. Número de código internacionalmente aceito de catalogação de livros.

[15] N.T. Iniciais de Amazon Standard Identification Number. Segundo a Amazon informa no seu sítio: ���Praticamente todo produto no nosso s��tio tem o seu próprio ASIN ����������� um c��digo único que usamos para identificá-lo. Para livros o ASIN é o mesmo que o n��mero do ISBN mas, para todos os outros produtos, cria-se um novo ASIN quando eles passam a integrar o nosso catálogo.

[16] N.T. Iniciais de Events and Venues Database.

[17] NT: SolverTape, no original, uma marca de fita cola isoladora.

[18] N.T. Iniciais de Geographic Information System (Sistema de informação geogr����fica).

[19] N.T. Iniciais de Information Technology (Tecnologia da informação). N.T. Iniciais de Information Technology (Tecnologia da informação).

[20] N.T. Iniciais de Dynamic Hyper Text Markup Language.

[21] N.T. Em português: “aplica������ões de internet ricos���.

[22] N.T. Iniciais de Graphical User Interface (Interface de uso gráfico)

[23] N.T. Iniciais de Asynchronous JavaScript + XML.

[24] N.T. Iniciais de Instant Message.

[25] N.T. Inciais de Voice Over Internet Protocol.

[26] N.T. wiki: S��tio colaborativo semelhante a uma sebenta grupo muito mais “adapt��vel���.

[27] N.T. Iniciais de Customer Relationship Management: gest��o de relação com o cliente.



Página 1 de 11
 

Bad Behavior has blocked 658 access attempts in the last 7 days.