Logo

Arquivo por ‘Instrumentos’ Categoria

Fontes ao alcance de todos – parte III

Esta é a última parte da minha odisseia em torno das fontes para web com experiências à mistura. Espero que gostem e dêem feedback da vossa perspectiva e uso deste novo meio.

Vantagens claras do uso de fontes web

  • qualidade que dá ao resultado final com um toque distinto e mais carácter quando as fontes são bem usadas
  • facilidade de uso, pois só se acrescentam umas linhas de código
  • websites menos carregados de ficheiros pesados, sem a anterior necessidade de usar imagens de background onde texto estava plasmado. Agora a fonte é gerada on the fly
  • versatilidade prometida pela dupla revolucionária HTML5 e CSS3, já que passa a ser possível criar efeitos sombra, rotação
  • funcionamento em todos os navegadores, estando para breve o uso em smartphones e tablets
  • comodidade máxima, permitindo muitas vezes (sobretudo no caso de fontes open source) o uso no desktop com download e trabalho offline

Escolher e editar fontes

Alguns conselhos são do bom senso e funcionam para a tipografia em geral, mas outros são específicos da web. Há quem defenda até que a tradição deve ser esquecida, porque há cânones não aplicáveis ao ambiente www.
Usar com moderação as fontes numa mesma página ou site, caso contrário obtém-se uma salada russa sem qualquer interesse ou função.

Não ir com ideias feitas acerca das fontes serifadas e não serifadas. Esta chamada de atenção vem de John Boardley neste artigo em que afirma que é comum ver-se tipos com um efeito espectacular na web e muito maus no papel e vice-versa. Aconselha a ler o texto, a experienciar a leitura e a usabilidade dos tipos escolhidos e a realizar testes, inclusive em vários monitores.

Ser criterioso na escolha da fonte, porque a fonte não é mero veículo de sentido. Ela tem também uma carga e pode tornar-se mais facilmente memorável, reconhecível, familiar. Por exemplo a helvetica perdura na memória.

Procurar a expressão máxima da fonte: bom controlo do contraste; tamanho não inferior a 10/12px, de preferência deve ser maior; uso de caixas e hierarquia de fontes; ceder espaço para o texto respirar; usar a largura entre as letras adequada (line-height), são ainda outros pontos sublinhados.

Comportamento dos navegadores

Com a solução @font-face são os navegadores que processam a fonte. O formato WOFF será no futuro usado por quase todos os navegadores, mas para já o cenário é o seguinte:

  • TTF – para Firefox 3.5+, Opera 10+, Safari 3.1+, Chrome 4.0.249.4+
  • EOT – para Internet Explorer 4+
  • WOFF – para Firefox 3.6+, Internet Explorer 9+, Chrome 5+
  • SVG – para iPad, iPhone

A forma de processar de cada navegador é diferente. Enquanto uma página com fontes @font-face é carregada, há dois comportamentos típicos: no caso do Chrome, Safari, IE, o espaço onde as fontes vão aparecer mostra-se em branco até ficarem totalmente carregadas e disponíveis. No caso do Firefox, é carregado um formato de fonte por defeito que é substituído pela fonte seleccionada assim que ela fica disponível.

À pergunta se o processamento das fontes pelos navegadores torna as páginas mais difíceis de carregar, há para já algum risco disso, sobretudo se é necessário carregar muitas fontes. Por isso é tão importante a plataforma que disponibiliza as fontes e o uso comedido e responsável das mesmas. Porém, há um truque para minimizar efeitos que consiste em colocar a tag <link> referente à fonte em primeiro lugar. O Web Font Loader do Google/ Typekit é um aplicativo em java que optimiza e parametriza este processo.

Recursos de excelência

A tipografia é uma paixão e os seus profissionais levam-na muito a sério. Os blogues transpiram conteúdos muito pertinentes, além de serem eles próprios um exemplo do bom uso das fontes. Quem achava que a tipografia estaria condenada, que se desengane, porque o fôlego é maior e a força dos tipos é imparável. São muito profissionais envolvidos e com muita experiência (tipógrafos, webdesigners, editores, criativos, comunicadores…)

A list apart tem bons artigos e dá perspectiva histórica

I Love typography tem também muitos tópicos sumarentos e bom gosto.

Aplicação prática

O procedimento é muito simples, como se pode ver nesta sequência de passos. Fiz a experiência neste mesmo blog do Wordpress, que dá acesso aos ficheiros css ou php através da interface. Mas qualquer tipo de blog ou website permitem com mais ou menos facilidade realizar isto mesmo.

Experiência com Google Font Directory
  1. Criar tag HTML nova a que vou aplicar o estilo, caso contrário terei a fonte por todo o site se usar uma das existentes. No exemplo, crio a tag exp1 (experiência 1)
  2. Guardar a nova tag no ficheiro style.css exp1 { }
  3. Ir a Google Web Fonts http://code.google.com/webfonts
  4. Escolher a fonte pretendida, clicando depois em Get the code e copiar essa linha de código
  5. Colar essa linha no ficheiro header.php, na parte referente ao head, no início da lista de links que houver
  6. Ir de novo ao ficheiro styles.csss e editar o estilo para a tag criada ou ir afinando de acordo com o efeito pretendido {font-family: ‘Reenie Beanie’, arial, serif; font-size: 30px; }
  7. Escrever num texto (modo HTML) o texto aplicando-lhe a tag criada

Escrito com a fonte Reenie Beanie do Google Fonts Directory

Experiência com Font Squirrel
  1. Criar tag HTML nova a que vou aplicar o estilo, caso contrário terei a fonte por todo o site se usar uma das existentes. No exemplo, crio a tag exp2 (experiência 2)
  2. Escolher fonte no Font Squirrel, ler a licença e descarregar o zip @font-face
  3. Descomprimir o ficheiro e copiálo para o directório de ficheiros do website/ blog (no caso coloquei na pasta /wp-content)
  4. Abrir o ficheiro stylesheet.css e copiar o seu conteúdo (declaração @font-face)
  5. Abrir o ficheiro style.css e colar a declaração copiada anteriormente: @font-face { font-family: ‘GondolaSDRegular’; src: url(’/wp-content/Gondola-SD-fontfacekit/Gondola_SD-webfont.eot’); …}
  6. Acrescentar uma linha no mesmo ficheiro style.css com a tag exp2 em que se chama o tipo em teste: exp2 { font-family: ‘GondolaSDRegular’, arial, serif; }
  7. Escrever num texto (modo HTML) o texto aplicando-lhe a tag criada

Nota: é preciso ter em atenção na definição do URl que é preciso dizer onde está a pasta com os ficheiros da fonte. O path deve ter /.

Escrito com a fonte Gondola Regular do Font Squirrel

Conclusão

Abrem-se muitas possibilidades com esta forma tão simples e rápida de obter fontes. Relativamente às plataformas, inclino-me para a Font Squirrel já que tem muito mais fontes que o Google e é 100% free. Devemos contudo ter o cuidado de seguir escrupulosamente as indicações de licença dos respectivos autores e actuar em conformidade. Na maior parte dos casos, o que é determinantemente proibido é comercializar e vender/ redistribuir a fonte.
Boas experiências com estes novos serviços.


Fontes ao alcance de todos – parte II

Dediquei algum tempo a sondar as plataformas que oferecem alojamento, pesquisa, download, licenciamento e serviços acrescentados na área das fontes para a web. Apesar da variedade, impõe-se uma linha, por um lado a de facilitar ao máximo a vida aos webdesigners, por outro a oferta de produtos/ serviços freebies, ou seja, gratuitos ou parcialmente gratuitos.

A onda começou com projectos como o Typekit e Kernest, mas seguiram-se muitos outros. O curioso é que as plataformas open source estão ao nível e até acima das plataformas comerciais.

Muitas considerações vão sendo feitas a propósito dos vários modelos de negócio. Muitos defendem que a qualidade e grande quantidade de fontes livres existentes não faz crer que as plataformas comerciais venham a ter muito sucesso. Outros acham ridículo o zelo excessivo em criar e controlar licenças de fontes para a web de usos em PC, numa época em que a publicação é sobretudo no ambiente web. Enfim, é sem dúvida um tema quente e em que tudo é questionado, inclusive os cânones do uso convencional dos tipos.

O projecto é ambicioso e organiza-se em três frentes, que concorrem para o mesmo fim, impulsionar e viabilizar o uso generalizado de fontes na web.

O lado mais visível e menos técnico é o Google Font Directory que reúne num repositório aberto 18 fontes totalmente licenciadas para uso por qualquer um, com informação das fontes e autores. São poucas, mas é o pontapé de saída para uma colecção que aumentará sem dúvida, à custa de parcerias e de uploads dos utilizadores. Por enquanto esta funcionalidade não é possível, mas olhando as práticas da empresa noutros projectos, como o Android, por exemplo, tudo aponta para aí. Este directório é meramente informativo e de consulta/ pesquisa.

Outra face do mesmo projecto é o Google Font API, a aplicação que permite embeber as fontes do repositório numa página/ sítio web, estabelecendo a comunicação entre o website destino e os serviços do Google de fornecimento das fontes disponibilizadas. A operação é muito simples e darei dela conta no próximo post.

O terceiro elemento do projecto, na realidade fruto de uma parceria com a Typekit, chama-se WebFont Loader que faz o upload de fontes e controla a forma como é visualizada a fonte, sejam fontes com origem no repositório do Google, do Typekit ou do servidor da pessoa.

Esta plataforma open source para fontes tem a virtude de ter sido pioneira, mas face aos seus comparsas, é tida como tendo um desempenho mais fraco, sobretudo quando comparada com o Typekit e mesmo o Typopheque.

Tal como todas, funciona como repositório, com pesquisa por vários critérios e um processo simplificado de 4 passos para a instalação de qualquer fonte no website desejado. Nos termos de uso, é claramente dito que o uso se limita exclusivamente aos browsers. Apesar de ser possível comprar fontes, a percentagem é residual e a preços acessíveis (máximo $15), porque o padrão são fontes gratuitas.

O responsável e mentor desta iniciativa, Garrick Van Buren, considera que é preferível disponibilizar fontes web nativas e licenças abertas, primeiro porque muita fontes de impressão não se adequam à web e são ficheiros pesados, por outro lado têm um passado de restrições que não se enquadra no novo ambiente. Na mesma linha posiciona-se Chank Diesel no texto “The Sad State of Today’s Web Typography – Fertile Ground for Font License Revolution”, que entra no projecto.O uso pode ser materializado de duas formas: usando a @font-face ou fazendo download para instalação dos ficheiros da fonte no servidor do website.

A fonte é exibida sem qualquer necessidade de ficheiros javaScript, Flash ou outra tecnologia. O trabalho é feito inteiramente pelos navegadores, não importa quais.

Na origem do Typekit estão Jeffrey Veen e Jason Santa Maria que projectaram uma plataforma tecnológica de alojamento de fontes gratuitas e comerciais com implementação rápida, simples e excelente performance ao nível dos resultados de publicação nos websites. É aliás uma das bandeiras do Typekit, a qualidade dos seus servidores para lidar com os pedidos e satisfazer com profissionalismo os pedidos à plataforma oriundos de todo o mundo. Garantem também a protecção dos direitos de autor das fontes que aí são publicadas com restrições.

O funcionamento é simples: registo prévio, criação de kit (lista de websites we fontes a usar), com adição de linha de código de JavaScript ao ficheiro HTML de cada website. O CSS é editável no interface do Typekit.

São três os planos: personal, professional, performance, desde os $24,99 aos $99,9 variando o leque de fontes acessíveis, a quantidade de fontes a usar num website e o nº máximo de websites. Por $50/ano é possível ter acesso a todas as fontes e usar aplicá-las sem limite de nº de fontes e nº de sites. A BD da autoria de Brad Colbow explica o funcionamento.

Projecto que tem a Monotype Imaging por trás, sendo a versão web fonts do site fonts.com O que impressiona neste projecto é a quantidade de recursos: 2000 fontes gratuitas (na versão beta do lançamento da plataforma) e aguardam-se 7000 comerciais. O suporte multi-língua é outro ponto forte, o que não é de subestimar, quando o tema são fontes. Nesta fase, o registo é gratuito, mas depende de convites que são limitados, sendo que para tal se cria um projecto a que se associam determinadas fontes.

Como já esboçado, é preciso criar projectos ou um projecto em quatro etapas, depois de já estar provido de código de subscritor. Primeiro; escolher as fontes que deseja usar; listar os websites ou website em que deseja intervir; definir o CSS para as etiquetas do HTML (h1, h2, body, nav, etc.); adicionar uma linha de código no ficheiro HTML. Este sistema tem a vantagem de permitir gerir as fontes usadas em cada website, permitindo as alterações a partir do interface da plataforma sem ter de mexer de novo nos ficheiros do website em questão. Estes serviços de valor acrescentado é que acabam por marcar a diferença.

The League of Movable Type é um movimento interiramente open source. Os mentores, Caroline and Micah, sublinham a importância do projecto que não é contra as tipografias nem criadores de tipos, antes pelo contrário. Explicam que é uma forma de promoverem e aprenderem a estar na web. Defendem que um bom criador só ganha em disponibilizar um tipo criado por si para uso gratuito, tanto para fins comerciais como não. Porém, esclarecem que qualquer fonte modificada requererá uma licença open como a sua antecedente – SIL Open Font License.

É um projecto original que reúne para já 11 fontes de muito boa qualidade, já que a aceitação de fontes propostas para a colecção exige critérios elevados de qualidade.

As fontes estão prontas para download e uso por qualquer utilizador e são efectivamente bonitas e elegantes. Nos 11 tipos, é possível encontrar um leque variado.

font-squirrel-logo

Reúne centenas de fontes, podendo ser descarregadas em ficheiro ttf simples ou em kit @font-face. Este kit traz a fonte em ficheiros de vários formatos formatos (ttf, eot, svg, woff), o texto da licença, uma demo e ainda o ficheiro css para ser colado no style.css do website.

Este repositório oferece ainda a possibilidade de testar fontes com texto próprio, de submeter fontes através do seu @Font-Face Generator.

Relativamente às licenças aplicadas às fontes, é preciso ter em atenção e ler com cuidado a secção license em cada fonte, porque há licenças para todos os gostos. EM princípio, são os próprios autores que definem como querem que seja usada a fonte, se há restrições de uso, etc. Existe também disponível o contacto. No entanto, há muitas fontes que foram recolhidas na web e cuja autoria não foi reclamada (fontes “órfãs”). A Font Squirrel descarta responsabilidades relativamente a má interpretação e incorrecto uso das fontes. As licenças sem restrições são: End User License Agreement (EULA), SIL Open Font License.

OUTRAS

No Typotheque é possível comprar licenças de uso do software, havendo várias modalidades de uso: licença básica (utilizador único), multi-utilizador; @font-face com código para embeber; licença global, etc. Esta última não impõe qualquer restrição, como por exemplo o tráfego por mês.

Em FontSpring paga-se uma vez e tem-se acesso por subscrição anual a fonte para uso num website.

No FontDeck a licença é paga à unidade e começa nos $6.49/ano, defendendo-se o custo à medida do uso.

Finalmente, em Just Another Foundry o preço de uma família começa nos $19/ano.


Fontes ao alcance de todos – Parte I

Até aqui, o uso de fontes na web esteve bastante condicionado e limitado a peritos. Os condicionamentos eram múltiplos: o comportamento dos browsers, já que uns suportavam, outros não, e ainda as licenças e a questões de segurança. Outra complicação era o conhecimento técnico necessário para embeber fontes. E assim durante vários anos, na web só encontrávamos as fontes Arial, Georgia, Helvetica, Times, Verdana, e pouco mais. Um cenário decepcionante, pois o uso intensivo da dúzia de fontes contrastava com as dezenas de milhar existentes, não todas adequadas à web, mas que poderiam ser adaptadas.

Neste post, quis abordar com algum detalhe o tema, por isso resolvi publicar por partes. Nesta primeira parte, faço uma pequena introdução, na segunda parte analiso o mercado e, na terceira e última, realizo uma experiência com @font-face.

Mudança de cenário tecnológico e vontade de dar a volta

Nos dois últimos anos, produziram-se movimentações rápidas e deram-se passos consideráveis, depois de mais de uma década de impasses e soluções que não convenciam nem mobilizavam os actores.
Para os três problemas enunciados, arranjaram-se soluções. Actualmente, a maioria dos browsers adoptou na sua base um @font-face para lidar com pedidos de fontes.
Paralelamente, assistiu-se à criação de licenças mais adequadas ao ambiente web. Isto porque os direitos de uso de fonte em meio gráfico não são extensíveis à web. Alguns exemplos mais frequentes de licenças usadas para fontes na web são: SIL Open Font License, Creative Commons, GNU Public License, EULA.
O terceiro problema, decorrente do modo anterior de embeber fontes, dificultava o controlo do uso da fonte, pois ela ficava disponível para download e uso não autorizado. Neste momento, isso não representa problema, porque a fonte é, digamos, requisitada a cada momento à plataforma, não existindo um download directo ao utilizador.

Marcos temporais

EOT

No distante ano de 1997, a Microsoft tomou a iniciativa de criar um formato para embeber fontes que consistia em transformar o tff em eot comprimido. Começou por ser um formato inteiramente proprietário, que em 2007 a empresa tentou submeter ao consórcio W3C para integrar as normas do CSS3. A rejeição por falta de segurança liquidou a iniciativa a que se juntou pouca receptividade, embora a Apple viesse em defesa do eot. Moribundo enquanto solução, ainda é usado para o IE, tendo como vantagens a compressão, encriptação, protecção, mas como grande desvantagem o facto de só funcionar no IE. O IE9 já vai suportar o formato normalizado WOFF.

.Webfont

Em 2008 surge a ideia de disponibilizar as fontes num ficheiro .zip, contendo no seu interior o ficheiro da fonte propriamente dito e um ficheiro .xml com as permissões. Mas esta proposta também não colheu candidatos, porque requeria a edição do ficheiro .xml caso a caso.

WOFF (Web Open Font Format)

Entretanto as alternativas open (TrueType and OpenType fonts) estavam em curso desde há algum tempo e como não tinham o engulho do controlo das licenças, tornava-se um problema de mais fácil solução.
Daqui deriva o formato de fonte WOFF que se baseia nos já existentes (funde-os) e incorpora a declaração normalizada para fontes – @font-face para o CSS. As figuras que estiveram na sua origem foram: Jonathan Kew (Mozilla Corporation), Tal Leming (Type Supply) Erik van Blokland (LettError) e as empresas que submeteram o formato à aprovação em Abril deste ano foram Mozilla, Opera e Microsoft.

@font-face

Esta declaração estabeleceu-se como norma para fontes na web, estando ligada ao ficheiro do estilo (CSS) que está separado do ficheiro de estrutura (HTML). Sejam plataformas de fontes de licença livre, comercial ou mista, todas usam-na, viabilizando o uso generalizado de fontes na web.
Na prática, os navegadores e dispositivos móveis lêem uma linha de código que declara a fonte ou fontes a usar no ficheiro HTML, sendo o estilo editado no ficheiro CSS.

Proponho dois links interessantes que me permitiram traçar o percurso um pouco sinuoso das fontes web. Em Web fonts — where are we?, John Boardley descreve a situação insustentável para os webdesigners e faz o ponto da situação.

webfonts_articleNum outro artigo – Fonts at the crossing, Richard Fink detalha a evolução e os principais players.

webfontscrossing_article


Backups – Boas práticas (parte 2)

No artigo anterior fiz uma abordagem algo teórica ao tema das cópias de segurança. Agora, apresento algumas das soluções disponíveis (que está longe de ser exaustiva) para um utilizador singular ou para uma pequena rede e qual o procedimento que adoptei para evitar que novos “acidentes” deixem marcas permanentes. Como o sistema que utilizo é essencialmente Ubuntu (1 desktop e 2 portáteis) os exemplos basear-se-ão na plataforma GNU/Linux e mais concretamente no ambiente Gnome.

As soluções para backup podem classificar-se segundo duas perspectivas: a tipologia (método e formato utilizado) e o suporte (onde é alojada a cópia de segurança).

Quanto à tipologia podemos ter cópias “espelho” e arquivos. As primeiras consistem em replicar totalmente os ficheiros, pastas, partições ou mesmo discos completos. Esta réplica não se limita aos ficheiros, incorporando também a estrutura das pastas, permissões de acesso e mesmo relações entre os diferentes ficheiros. Já os arquivos agregam os ficheiros que se pretendem salvaguardar num único ficheiro/arquivo que pode ser comprimido e/ou encriptado por questões de segurança.

Quanto ao suporte podemos guardar o nosso backup num repositório local, num suporte externo amovível ou num repositório remoto.
Pode ser ainda utilizada a tecnologia Raid para manter cópias sincronizadas num parque de discos, mas esse método não se enquadra no âmbito deste artigo.

Cópias espelho

Existem inúmeras aplicações que realizam cópias espelho, sincronização de ficheiros ou file sync. Podemos afirmar que o seu funcionamento é independente do sistema operativo e passa pela definição dos ficheiros, pastas, partições ou discos a salvaguardar; o suporte para onde se pretende criar a cópia e a periodicidade da sua realização são definidos pelo utilizador.
Para ambiente Windows ou Mac existem imensas aplicações, e uma simples pesquisa no Google é um bom ponto de partida. Algumas gratuitas, outras nem por isso. Na perspectiva open source que caracteriza o “Agulha no palheiro” proponho o rsync na sua versão Windows ou Mac. Nas aplicações em versão proprietária, um produto bem conceituado, mas que não conheço em detalhe, é o Acronis.

O rsync é na sua essência uma aplicação de linha de comandos, mas para os sistemas GNU/Linux existe uma grande variedade de soluções gráficas para facilitar a vida aos utilizadores. No ambiente Gnome, e após experimentar uma série de aplicações, seleccionei o Gadmin-Rsync que faz parte de um conjunto mais abrangente de aplicações administrativas  – as GadminTools.
A configuração é extremamente simples e resume-se a:

  1. identificar as pastas ou ficheiros que devem ser salvaguardados
  2. indicar onde será alojada a cópia de segurança
  3. programar com que regularidade deve ser efectuada a cópia

Arquivos

Esta abordagem é provavelmente a mais conhecida e utilizada. Desde o simples ficheiro zip até formatos encriptados proprietários que só podem ser manipulados por aplicações específicas, as soluções são inúmeras.
Das que experimentei, recomendo a Simple Backup Solution, pois possui uma configuração extremamente simples e com algumas soluções predefinidas que cobrem a maior parte das necessidades.

As vantagem evidentes da utilização dos arquivos são a economia na área de armazenamento e a simplicidade no processo de guardar uma cópia desses arquivos em suportes externos. Contudo, não optei por esta solução, pois agrada-me ter uma cópia “sempre fresca” dos ficheiros num formato que posso consultar sem problemas.

Repositório local

Para um acesso rápido às cópias, estas devem estar alojadas numa máquina com acesso directo. Pode ser um servidor de ficheiros ou um segundo disco. O protocolo sob o qual se ligam as máquinas não condiciona o processo, podendo ser uma ligação Samba, SSH, etc.

Suporte externo amovível

Com a redução substancial dos custos dos discos rígidos externos, esta solução tornou-se bastante acessível. Alguns fornecedores de hardware já começaram a incluir nos seus produtos soluções integradas de backup, como é o caso da Western Digital com os seus My Book.

Para soluções mais profissionais o recurso a sistemas automáticos de salvaguarda em fita magnética “tape backup” continua a ser uma opção bastante válida. Para uma consulta à gama disponível actualmente sugiro uma visita a sites de empresas que oferecem este tipo de hardware, como por exemplo a Tandberg.

Repositório remoto

A tendência de aumento da velocidade de transferência de dados nas redes actuais torna cada vez mais ténue a fronteira entre a nossa máquina/repositório local e um repositório remoto. Na prática, um acesso a um repositório remoto é muito idêntico aos procedimentos e possibilidades de utilização do repositório local, variando somente a velocidade de comunicação. Um serviço simples e interessante é o Ubuntu One que oferece 2Gb grátis para sincronização de ficheiros e notas.
Existem contudo serviços integrados que disponibilizam, de uma forma transparente para o utilizador, as ferramentas e processos de backup associados a um espaço de alojamento remoto. Um dos atractivos destes serviços é a salvaguarda contra desastres naturais (ou não tão naturais) como inundações, incêndios ou terramotos. Os datacenters estão em edifícios adequados e, dificilmente sofreremos simultâneamente os efeitos dessas calamidades.  A maior parte das empresas desta área oferecem o serviço gratuito para atrair clientes, embora as limitações de espaço sejam óbvias. Há uma grande oferta – uma simples pesquisa devolve dezenas de fornecedores.

Dos que testei, pareceu-me bastante interessante e com uma óptima relação funcionalidade/preço, o CrashPlan. Além da salvaguarda remota dos dados, permite a utilização de outros níveis de arquivo como por exemplo um disco local ou um disco externo. Possui um interface bastante simples e a automatização dos processos é linear.

Outros bastante conhecidos são o Adrive, o Mozy ou o Dropbox.

A minha solução

Sem pretensões de ser a solução ideal, mas somente a título de exemplo, apresento agora as opções que tomei para salvaguardar os dados na minha rede pessoal.
Como já mencionado adoptei a sincronização de ficheiros e pastas utilizando o rsync como tipologia. A aplicação que o executa é o gadmin-rsync. Seleccionei todos os ficheiros/pastas que considerei importantes e agendei o processo para uma cópia diária.
Quanto ao suporte, o gadmin-rsync cria a cópia (arquivo de 1º nível) para um segundo disco que tenho no desktop. Como esse segundo disco é partilhado, via Samba, na minha rede local, os portáteis também o utilizam para armazenar as suas cópias.
Paralelamente, tenho a correr o Crashplan que me arquiva, também numa base diária, os mesmos ficheiros (arquivo de 2º nível). Este processo é mais moroso pelo que a sua utilização para recuperar os dados é utilizada como opção final. É útil também para transferir ficheiros quando estou fora e sem acesso ao desktop, podendo-o considerar como um repositório ftp.
Finalmente faço semanalmente, aqui de forma manual, uma cópia completa do meu “repositório local” para um disco externo (arquivo de 3º nível).

Quando o Murphy não deu tréguas

Se não tem uma cópia disponível ou se tudo o resto correu mal a solução final é recorrer a um serviço de recuperação de dados. É bastante oneroso, mas se os dados o justificarem… Como exemplo existe o serviço de recuperação de dados da Iomega.


Backups – Boas práticas (parte 1)

Imagine que um vírus infecta o seu computador, ou a sua rede completa, tornando inacessíveis ou mesmo limpando todos os ficheiros que produziu. Ou então que, numa operação aparentemente inocente e rotineira, um utilizador apaga uma pasta ou mesmo um disco completo. Se a máquina for pessoal sentir-se -á, no mínimo frustrado e com raiva pelo que aconteceu. Mas se estivermos a falar de um ambiente de negócio, dependendo da profundidade do “ataque ou acidente”, pode estar em causa a sobrevivência da actividade.

Pois, era daquelas coisas que “só acontecem aos outros” e que, apesar de estar consciente dos riscos, não merecia muita atenção da minha parte. Até que recentemente um “acidente”, vulgo “clicar onde não devia”, apagou-me toda a pasta documentos onde está alojado todo o meu trabalho! Tenho por hábito fazer ocasionalmente cópias de segurança dos dados que considero críticos. Contudo a última cópia datava de há 4 semanas pelo que era esse o custo que teria que pagar – e tinham sido 4 semanas bem duras. Recorrendo à comunidade Linux – sempre pronta a ajudar e a partilhar as suas experiências – consegui recuperar os ficheiros e livrei-me de umas jornadas de trabalho forçado para conseguir cumprir os compromissos.
Sentir os efeitos na primeira pessoa fez-me reflectir sobre os procedimentos que tinha instalado e como os melhorar para minimizar os riscos.

Data Backup, Restore & Archive

Estes termos, universalmente associados à segurança de dados, têm os respectivos pares em Português e cujas definições sintetizo de seguida.
Data backup, ou cópia de segurança de dados, é o procedimento de transferir ou salvaguardar os dados de um sistema (que pode ser constituído por um computador único ou conjunto de computadores ligados em rede) para um sistema de armazenamento externo. Este sistema pode ser uma fita magnética (tape drive), um disco externo, um servidor de backup ou um data center remoto.

Na eventualidade de ocorrer a perda de informação, a cópia de segurança será utilizada para repor – Restore – o sistema no estado anterior ao incidente, permitindo retomar a actividade de forma normal.
Um arquivo – Archive – é, tal como se deduz, um repositório a médio/longo prazo de cariz mais ou menos permanente, onde se depositam as cópias de segurança. De forma geral, os arquivos encontram-se fora das instalações onde se aloja o sistema e em condições que permitam garantir a sua segurança contra eventuais intempéries ou cataclismos. A sua utilização é vital para negócios onde a manipulação de informação está no core da actividade (uma instituição financeira por exemplo).

Que ficheiros proteger?

A tentação é querer salvaguardar tudo, particularmente nestes tempos em que o armazenamento em massa começa a ficar muito acessível. Mas, por outro lado, o volume de informação que transaccionamos cresce exponencialmente. Por questões de eficiência na utilização dos recursos e utilidade do próprio processo de backup, devemos somente guardar os ficheiros que realmente o justifiquem.
Na linha da frente estão os ficheiros de dados que são alterados/utilizados frequentemente e que verdadeiramente “pertencem” ao utilizador. Com uma periodicidade menor deverão ser salvaguardados os ficheiros do sistema que, apesar de poderem ser restaurados a partir das fontes disponíveis em suporte físico ou em repositórios virtuais, abreviam o restauro do mesmo sistema em caso de calamidade.
A frequência da execução das cópias de segurança poderá variar em função do tipo de ficheiro e da taxa de actualização da informação. Por exemplo, é habitual efectuar um backup diário dos ficheiros de dados e um semanal do sistema. Ficheiros críticos para a actividade podem ter várias cópias por dia. Existem ainda outras soluções em que é mantida uma réplica dos ficheiros seleccionados quase em tempo real.

Tipos de backup

Além do backup total – cópia de segurança integral dos ficheiros seleccionados, existem outras formas de realizar as cópias de segurança de um modo mais expedito e optimizado.
As cópias de segurança parciais incidem sobre todos os ficheiros adicionados ou alterados desde o último backup. Estas podem ser do tipo diferencial (tomam como base a última cópia total) ou incremental (tomam como base a última cópia total ou parcial).

O backup diferencial, em conjunção com o total, deve ser utilizado quando se pretende um restauro rápido e sem problemas. Um procedimento habitual passa por realizar uma cópia de segurança total semanal ou quinzenalmente em paralelo com cópias diferenciais diárias. Com este método o processo de restauro é mais eficiente porque só se recorre a duas cópias (uma total e uma diferencial). Contudo o processo de backup é mais lento, pois são guardados mais ficheiros em cada operação.
O backup incremental, por oposição ao diferencial, tem um processo de backup mais rápido, já que toma como base um estado mais próximo, e um restauro mais lento pois pode exigir o recurso a várias cópias de segurança, realizadas desde a cópia total.

Qual a melhor estratégia?

Como é vulgar neste tipo de situações, tudo depende do que é mais importante para si ou para a organização. Se o tempo disponível para realizar as cópias de segurança é vital, então é aconselhável optar pelas incrementais. Deste modo, as interrupções na normal operação do sistema são minimizadas. Mas, se por outro lado, a rapidez e simplicidade no processo de restauro é valorizada, dever-se-á abraçar um esquema de cópias de segurança diferenciais.

Soluções disponíveis

Na parte 2 apresentarei algumas soluções com as quais me cruzei no decurso da pesquisa para encontrar o sistema adequado às minhas necessidades.


Guia de apoio à investigação

Elaborei este guia para orientar, de alguma forma, quem pressente que pode tirar partido da Internet mas não sabe exactamente como. Este facto não é de estranhar, dada a variedade de escolha e de possibilidades que surgem continuamente. Mesmo os gestores de referências bibliográficas clássicos já renovaram modos de pesquisa e funcionalidades, de forma que quem tenha feito investigação há uns anos atrás tem de fazer uma reciclagem.

A selecção é questionável, aliás como qualquer selecção, por isso desafio aqueles que conhecem e usam outras aplicações que lhes são muito úteis a deixarem o relato e a darem o seu testemunho. Terei todo o gosto em incluir essas sugestões em próxima revisão deste guia.

Fica o link para download do documento: Pequeno guia do investigador


Creative Commons, o copyright à la carte

Muitos poderiam ser os motivos por detrás da escolha deste tema para post, mas o que esteve verdadeiramente na sua origem foi o rápido desenvolvimento deste projecto. Lembro que há um ano atrás, à Creative Commons estava associado o famoso conjunto de licenças alternativas ao copyright, mas em poucos meses multiplicaram-se os programas, o alcance e a popularidade da “marca” CC.

Problemas associados à propriedade intelectual e direitos de autoria

Ao contrário do que se possa pensar, a noção de autor é historicamente recente, mas de uma complexidade tal que parece não existir consenso entre os dois pratos da balança em conflito nestas questões – o direito de protecção à criação e o direito de acesso e uso da mesma.
A controvérsia é inevitável pelo conflito de interesses já referido, mas também por um conjunto de questões e implicações legais, abundantes em variedade, nuances e perspectivas. Senão vejamos:

  1. Recompensa monetária do autor
  2. Reconhecimento público e direito à menção de autoria
  3. Respeito pela integridade da obra
  4. Fronteira nem sempre evidente entre obra original e derivadas, adaptadas
  5. Gestão de direitos conexos (intérpretes, executantes…)
  6. Impossibilidade de conhecer a vontade do autor
  7. Classificação por defeito de qualquer criação como obra com copyright
  8. Existência de lobbies e círculos de interesses associados a indústrias do lazer, dos conteúdos e a grupos editoriais
  9. Possibilidade de transferir uma criação para suportes diferentes do suporte original, criando indefinições quer por alargar ou restringir abusivamente os direitos autorais. A aquisição de direitos de autor de obra impressa são extensivos ao formato digital? E neste caso, aplicam-se da mesma forma, seja online ou em CD-Rom?

Simplificar a complexidade

Num rasgo original e muito pragmático, a Creative Commons analisou as questões práticas associadas ao Copyright e desenhou um conjunto de licenças, cujo objectivo central é facilitar a vida a todos os implicados. E o impacto não é pequeno se pensarmos que o principal beneficiado é o cidadão comum.
Os problemas foram claramente balizados e as soluções surpreendentemente simples:

  1. Cabe ao autor definir que situação deseja aplicar à sua criação, ficando claro o que é e o que não é permitido fazer com a obra
  2. Reconhecimento público e menção à autoria são consagrados pela CC
  3. Respeito pela integridade da obra também faz parte do direito moral ligado à autoria
  4. Autor declara se é possível criar trabalhos a partir do seu
  5. Direitos conexos podem igualmente aplicar as CC
  6. Vontade do autor é tornada pública e conhecida para todo aquele que desejar usar a criação
  7. Alarga-se o espectro das opções de protecção para além do restritivo copyright
  8. Lobbies e interesses não encontram argumentos para destronar a clareza e funcionalidade das CC, porque não se trata de um ataque ao copyright, mas de fazer escolhas e exercer efectivamente o direito do copyright
  9. Aplica a licença a uma obra, independentemente do formato e canal.

O espírito da iniciativa CC está bem espelhado nos slogans e material que disponibilizam no seu sítio web e que acabam por resumir também os objectivos da organização.

Na realidade, CC está inscrita no movimento e filosofia mais amplos do acesso livre e difusão do conhecimento. O seu trabalho visa:

  1. Atribuir a todas as obras as liberdades e restrições que os seus autores entenderem
  2. Fomentar a partilha, a mistura e a reutilização legal e autorizada de conteúdos
  3. Aumentar a disponibilidade de obras originais, assente na crença de que “obra cria obra”
  4. Estimular a criatividade numa base livre e legal
  5. Refinar as regras do copyright, sem que se caia por falta de alternativa nas situações extremadas (copyright e domínio público)
  6. Equilibrar e fazer convergir o interesse do autor e o do consumidor/ utilizador

Na imagem, é possível observar a passagem do “All Rights Reserved” (Todos os direitos reservados) para “Some Rights Reserved” (Alguns direitos reservados), sem que se caia no domínio público (Nenhum direito reservado).
As licenças CC criam uma escala de variantes entre os dois extremos, permitindo ao autor escolher o cenário mais condizente com as suas conveniências e as do público a que se dirige, que nenhum dos cenários anteriores satisfazia.

escala_cc

Actividade organizada em 5 áreas

A Creative Commons é uma organização sem fins lucrativos, cujo produto de toda a actividade está livre e disponível para ser usado.
À semelhança de outros projectos, usa o voluntariado e os donativos para levar a cabo os objectivos, e evoluiu num breve espaço de tempo para objectivos mais amplos.

1. Apoio a comunidades
A Creative Commons dota as comunidades de um modelo prático para declarar direitos e condições de uso, mas não medeia conflitos nem tem qualquer influência nas escolhas das licenças pelos autores legítimos nem nos usos legais dos consumidores.
Nesta área foi dada prioridade a uma comunidade gigantesca que depende muito da retroalimentação dos pares – a comunidade científica. Ao projecto deu-se o nome de Science Commons, cujo objectivo é acelerar o processo de circulação das obras entre os autores e os receptores, bastante dificultado pelo circuito tradicional de publicação.
Por sua vez, a Creative Commons International encarrega-se de coordenar as contribuições dos peritos nos assuntos legais. Já a ccLearn tenta estreitar a relação com a comunidade académica. O ccMixter está orientado para a música e os remix. A pessoa interessada pode fazer download de samples e trabalhá-los, partilhando-os depois com a comunidade de forma totalmente legal. Este projecto usa a plataforma ccHost.

2. Licenças e protocolos
Criar as licenças CC, melhorá-las e funcionar como observatório da área são algumas das metas da Creative Commons. Para isso, realiza regularmente inquéritos e recolhe opiniões e experiências de pessoas e entidades sobre o uso de conteúdos na Internet. A ideia é compreender as necessidades, tanto ao nível da protecção de direitos dos criadores, como dos usos dos consumidores, procurando antecipar-se e adequar as respostas à realidade global, porque as CC pretendem ser reconhecidas como modelo universal em que todos se vejam representados.
Desta linha de actuação saem as licenças, os protocolos – para facilitar o processo de partilha e uso, e um motor de pesquisa de trabalhos com licença CC. Com esta ferramenta, fica mais fácil pesquisar trabalhos com licenças CC para uso comercial ou só para partilhar. Este interface pode ser integrado no Firefox, por exemplo.

3. Informação e divulgação
O que tem marcado o projecto desde a origem é a forte componente educativa e informativa, num esforço imparável para o tornar visível aos utilizadores.
Os meios utilizados são variados:

  • relato de casos de sucesso classificados por país, data de criação e domínio
  • documentação (tutoriais,  recomendações, especificações)
  • informação sobre a forma de licenciar o trabalho e colocar a licença visível para os interessados, seja um trabalho em texto, áudio, vídeo ou imagem
  • estatísticas e representação gráfica sobre o uso das CC
  • divulgação de eventos organizados

A Creative Commons disponibiliza uma secção de vídeos muito interessante, além de bem feita e esclarecedora.
A vontade de reunir todas as contribuições não é filosofia barata. Dada a quantidade de canais disponíveis e projectos em paralelo, dir-se-ia que o programa vive disso mesmo. Tem chat, forum, wiki, newsletter, mailing list.

4. Ferramentas
Ao longo dos anos, a CC criou ferramentas e instrumentos para implementar e usar facilmente as licenças.
A LicenseChooser.js é um widget escrito em java que permite colocar a licença em qualquer website. Para sites Wordpress, existe o plugin WpLicense.
Liblicense permite que os programas usem os metadados para extrair informação sobre as licenças. Já o LiveContent encarrega-se de difundir conteúdo aberto, de identificar novos conteúdos licenciados pelas CC e de desenvolver tecnologias que apoiem essa missão.
O ccHost é um CMS para o projecto ccMixter.
O extra OpenOffice.org Add-in permite que documentos possam embeber a licença escolhida.

5. Desenvolvimento
ccLabs é a unidade de desenvolvimento por excelência, sendo dinamizada por muitos programadores e pessoas que queiram voluntariamente contribuir. As traduções são outro aspecto nesta área.

História e balanço

Já lá vão 8 anos desde a criação da CC pelo Center for the Public Domain, que reunia peritos na área da Propriedade Intelectual e Direito no ciberespaço. O mais carismático foi Lawrence Lessig.
A actividade iniciou-se em 2002 com a criação do primeiro conjunto de licenças CC, inspirada na licença GNU de software, aplicada à plataforma gigantesca que é a Internet. Esta iniciativa teve acolhimento muito positivo em todo o mundo, sendo actualmente transposta para 45 jurisdições de países.
Em 2005, seguiu-se o projecto Science Commons e outros numa tentativa de alargar o âmbito de acção sem esquecer a necessidade de especialização por áreas – música, imagens, etc.
O saldo é francamente positivo se atendermos a alguns números: estima-se em 130 milhões os trabalhos com licenças CC; as licenças encontram-se na terceira versão e são 45 os países que adaptaram à sua paisagem legislativa as CC.

Licenças Creative Commons

A quase todo o tipo de obra são aplicáveis as licenças CC – áudio (música, discursos), imagem (fotos, ilustração), vídeo (filmes, animação), texto (livros, blogs, artigos), material educativo (aulas, slides), mas em relação ao software, a Creative Commons desaconselha, porque existem licenças próprias para software – licenças da FSF e OSI.

A licença Atribuição é a mais permissiva de todas e a última é a mais restritiva, sendo associada à “publicidade livre”, ou seja, a alguém que pretende difundir, mas não permite que se use para fins comerciais nem que se altere.

Graças às várias combinações possíveis dos factores, será muito pouco provável que a pessoa não encontre uma licença que a satisfaça. Porém, o trabalho de depuração e melhoria segue a todo o vapor.

quadro_licencas_cc


OpenID está mais perto

Apesar de já ter abordado o tema do OpenID, retomo-o, porque houve desenvolvimentos e trata-se de um protocolo de autenticação para ficar.
As novidades estão relacionadas com a recém-criada associação OpenID Portugal e com a manifestação de um maior interesse e receptividade de instituições (ministérios, universidade, instituições bancárias, associações comerciais, etc.) que poderão vir a assumir o papel de fornecedores de serviços OpenID.

Mas uma outra novidade inegável é a actual abundância de informação sobre o tema, volvidos que são seis meses desde que tratei este assunto no blog. Diagramas, vídeos, white papers, e muito mais. Não resisto a colocar aqui uma representação divertida do drama vivido por muitos internautas. A analogia com a Hidra das muitas cabeças reflecte claramente o incómodo de ter de preencher formulários de registo (sign on) por cada website que interessa e ainda ter de reter uma série de logins e passwords. Porque começa-se pelo endereço de correio electrónico, mas depois segue-se o Flickr, o Youtube, o Facebook,e muitos outros. É perfeitamente comum um utilizador regular da Internet possuir muitos registos.

//openidexplained.com

Autores: Omer Bar-or e Benjamin Thomas em URL<http://openidexplained.com>

Já se está a ver que, por contraste, o rapazito da direita usa OpenID. É reconhecido pelos vários websites/ serviços, usando o mesmo login/ password. Trata-se de um único registo válido para uma multiplicidade de websites, por isso esta tecnologia é conhecida por Single sign on (SSO). Mas é óbvio que o website que nos interessa tem de dispor do serviço OpenID, ou seja, de um formulário para esse efeito. Isso será cada vez mais frequente no futuro. Na imagem, vê-se um formulário com a opção OpenID. No primeiro caso, a pessoa não usou esse serviço, porque não possui OpenID ou não sabe o que é. No segundo caso, colocou o seu login e seleccionou esse serviço para um maior conforto e segurança.

sign_openid

O funcionamento do OpenID para identificação e autenticação da pessoa implica sempre três actores: a pessoa que quer utilizar os serviços de um website; a entidade responsável pelo website; a entidade que fornece o serviço de identificação digital, uma espécie de terceira parte ou mediador. Este terceiro elemento é fulcral, porque:

  • permite que o interessado se registe e crie a sua identidade digital, materializada num URL;
  • verifica a identidade da pessoa, assegurando aos websites que essa pessoa é efectivamente quem diz ser;
  • poupa imenso esforço ao utilizador e dá-lhe total controlo na gestão do seu perfil OpenID. Pois, o utilizador pode criar várias facetas do seu perfil, decidindo que dados são cedidos e o modo como é reconhecido num determinado website. Por exemplo, o nome de utilizador na página da faculdade pode ser “luismatos”, perfeitamente reconhecível, mas noutro website, pode usar um nickname.

Na figura que se segue, simulo uma ligação ao website da Wiki da Creative Commons em que quero participar. Como tenho OpenID (claudia.myopenid.com), selecciono essa forma de acesso. Vejamos o que se passa para que eu seja autorizada a entrar sem necessidade de login e password atribuídos pela Wiki do Creative Commons.

Funcionamento do OpenID

Planos do OpenID Portugal

Referi a criação da OpenID Portugal. Trata-se de uma organização sem fins lucrativos com um projecto ambicioso na manga, pode dizer-se. Para além da divulgação deste mecanismo de autenticação, planeia criar um plugin para o Firefox e desenvolver extensões do OpenID para mecanismos de segurança reforçados. Pormenores dos projecto estão acessíveis na entrevista que concederam ao SAPO Summerbits.

O plugin para o Firefox visa facilitar ainda mais a vida às pessoas. A autenticação é feita no início da sessão, não sendo necessário pedir para entrar nos vários websites que dispõem de OpenID visitados nessa mesma sessão. As extensões do OpenID é algo mais difícil de explicar. Mas começo por dizer que tenho usado indistintamente “identificação” e “autenticação”, quando, na realidade, não são sinónimos. E mesmo dentro da identificação, existem vários graus, consoante a segurança associada.

Como em outros casos, o protocolo do OpenID tem conhecido inúmeras especificações com níveis de segurança diferentes. Também existem websites que requerem elevada segurança, enquanto noutros uma simples identificação é suficiente. Foi a pensar em melhorar a confiança na navegação que a associação avançou com os projectos da criação da extensão OpenID para o cartão do cidadão (smart card) e com o reforço da identificação OpenID, complementada com dados biométricos, a usar em situações que o justifiquem.

E a verdade é que faz cada vez mais sentido o utilizador criar uma identidade digital que lhe permita relacionar-se com o Estado, fazer compras, assinar digitalmente contratos. Mas também é legítimo que tenha um avatar ou a um nickname, se for essa a sua vontade. Esta multiplicidade de identidades, ou melhor, facetas de identidade, é suportada pelo openID. No quotidiano digital, funcionará uma identificação simples nuns casos; noutros será exigível que a leitura do chip do cartão de cidadão seja feita e enviada ou que as impressões digitais, características da íris, etc. sejam elementos adicionais de identificação e autenticação, como já o é a assinatura digital qualificada.

Fornecedores de serviço de identificação OpenID

Em Portugal, está em experiência o SAPO, mas ao nível internacional existem muitos, além dos grandes nomes – Yahoo, Microsoft, AOL, VeriSign, Google, Sun Microsystems, Blogger e AOL, apoiarem e compatibilizarem serviços e software para este fim.

Alguns destes pesos pesados, têm evoluído nesta matéria. Por exemplo, o Google começou por disponibilizar acesso OpenID mediado por terceiros (myOpenid), mas passou a fornecedor do serviço este mês.

No site oficial do OpenID Foundation existe uma lista de fornecedores, mas a OpenID Portugal deixa a advertência de que é essencial escolher um fornecedor em quem se confie e com as garantias adequadas ao uso que pensamos fazer do OpenID.

Apesar da falta de neutralidade (o autor trabalha para a Viddop, um fornecedor de OpenID), penso que ajudará consultar a tabela comparativa dos vários fornecedores. Os parâmetros que serviram de análise podem funcionar para nós como pontos a que devemos estar particularmente atentos, quando escolhemos o serviço.

Recentemente, têm aparecido referências ao protocolo OAuth, um protocolo de identificação aberto como o OpenID, muito associado ao open social. Contudo, o OpenID tem a vantagem de já estar no terreno há mais tempo e de ter reunido em seu torno os grandes players da Internet.


Mais novidades sobre Feeds

Quando publiquei o post sobre os feeds, começaram a sair notícias sobre a disponibilização de feeds para pesquisas (web search results feeds) pela mão do Google. Além disso, descobri ferramentas que podem ser úteis, quando o serviço que queremos subscrever não nos permite a personalização dos feeds.
Pelas duas razões apontadas, é com natural teimosia que volto ao tema, até que os feeds são um formato universal que está a ser utilizado em múltiplas situações. Veja-se que começou por sindicar conteúdo de blogs, depois de notícias da actualidade, e por fim, resultados de pesquisa, em formato texto, áudio, etc.

Cenários possíveis

Vimos anteriormente que os feeds são um modo cómodo para a actualização e acompanhamento de um tema nos media e blogs.
Também tínhamos visto que há serviços de feeds mais flexíveis que outros. Uma passagem rápida por orgãos de comunicação electrónicos ou de versão electrónica portugueses revela que há ainda muitos jornais/ revistas que não usam esta tecnologia. Contudo, de entre aqueles que oferecem esse serviço, encontramos dois cenários:

  1. RSS sem qualquer filtro (exemplos dos jornais Expresso e Diário de Notícias). Todas as notícias publicadas são enviadas para o leitor de feeds.
  2. RSS por categoria (exemplos do El País, do Jornal de Negócios, e mais recentemente do Público, que tem os feeds por categoria em fase de experiência). Neste caso, o canal de feeds 57 do Público envia para a pessoa que subscreve o serviço apenas as notícias publicadas na área Economia.

Mas disto já eu tinha falado. O que desejo propor agora é uma terceira via ou cenário.

3. RSS por palavra/ expressão personalizada

Existem ferramentas que permitem aplicar filtros aos feeds genéricos ou por categoria. É a diferença entre receber todas as notícias publicadas, todas as notícias publicadas na secção Economia ou todas as notícias sobre a taxa Euribor.

Na construção do filtro de feeds, que nos serve de exemplo (ver imagem abaixo), foi utilizado o programa Feed Sifter, como se pode confirmar através da parte inicial do URL. O critério de filtro está na parte final. Em termos muito grosseiros, pode dizer-se que o programa interroga a lista de feeds disponível e selecciona apenas as entradas que cumpram os requisitos da pesquisa.

Segue uma breve apresentação, passo a passo sobre o processo de aplicação de filtro que foi exportado para a página web personalizada do Netvibes.

Programas que aplicam filtros em feeds

No blog ReadWriteWeb encontrei uma lista de programas. Alguns requerem registo e instalação, outros funcionam online. Experimentei dois deles por ser mais simples a utilização e o teste – o já referido Feed Sifter e o FilterMy RSS. Além destes, existem o Feed Rinse, o Blastfeed, o ZapTXT e o Pipes. Este último, propriedade do Yahoo, parece bastante potente e com funcionalidades bem interessantes.

O Feed Sifter é muito básico:

  • Só recupera a partir dos títulos. Tudo o que se encontre no corpo da notícia, não selecciona.
  • Apresenta só as entradas de feeds que comecem pela palavra pedida. Aplicando o filtro Santana, o título “Manuela, pressionada, retirou Santana da agenda” não é recuperado, mas “Santana e crise levam à ruptura Manuela/Marcelo” já é.
  • Não recupera palavras com acentos. Trata-se de uma ferramenta optimizada para a língua inglesa e com muitas limitações na construção do filtro.
  • Permite procurar vários temas, devendo cada um ocupar uma linha. Caso se trate de um tema com mais que uma palavra, devem ser escritas as palavras separadas por vírgulas: teixeira,dos,santos

Já o FilterMy RSS oferece mais opções:

  • Procura no título, na descrição/ resumo e na categoria, podendo escolher-se mais que um critério.
  • Permite excluir conteúdos.
  • Dá a possibilidade de ver em formato XML o rss original e o rss alterado.

Filtros personalizados em motores de pesquisa: histórico e características

Os próprios motores de pesquisa – Yahoo, Live Search, Google, dão a possibilidade de filtrar os resultados de pesquisa por RSS condizentes com as indicações dos utilizadores. O tema foi reavivado pela notícia do lançamento para breve deste serviço no Google. Sendo o motor mais popular e mais utilizado, não se compreende essa falha. O título “Finally! Google to Offer RSS Feeds for Web Search Results” é disso prova.
Na prática, isto significa que posso ter uma expressão de pesquisa personalizada e receber os seus resultados sempre que se verificam as condições, sem ter que repetidamente lançar essa pesquisa. Trata-se de uma monitorização permanente e com muito valor para quem vigia a sua influência na Rede, seja empresa ou investigador, ou para quem necessita de acompanhar de perto um tema, uma personalidade.

Histórico dos feeds na pesquisa

Foi a Microsoft que tomou a dianteira nesta matéria, quando em Janeiro de 2005, avançou com uma versão beta. Seguiu-se o Yahoo em Maio do mesmo ano. Este mês, Google informou que vai passar a oferecer este serviço, numa reacção tardia aos seus mais directos competidores.

Aplicação
O processo de construção de um endereço de feeds em resultados de pesquisa obriga a que se faça a primeira vez a pesquisa. Nos dias e semanas seguintes, o mecanismo de RSS encarregar-se-á de nos enviar tudo o que surgir nas notícias ou WWW sobre o tema acerca do qual lançámos a pesquisa.

No Live Search, são necessários três passos muito simples. Vou exemplificar com uma pesquisa a Lobo Antunes.
Passo 1 – Pesquisar na web em geral (http://search.live.com) ou na área das news (http://search.live.com/news), colocando na caixa de pesquisa a expressão que desejamos.
Passo 2 – Quando se lança a pesquisa, além de se obter a lista de resultados, pode-se ver o URL dessa pesquisa na caixa do navegador. Devemos acrescentar a essa direcção o seguinte texto: &format=rss
Exemplo para web: http://search.live.com/results.aspx?q=lobo+antunes&go=&format=rss
Exemplo para news: http://search.live.com/news/results.aspx?q=lobo+antunes&go=&format=rss
Passo 3 – Depois, basta copiar esse endereço de feeds, completo e já alterado, para o nosso leitor de feeds

Com o Yahoo é parecido. Deixo o exemplo para a área das notícias: http://news.search.yahoo.com/news/rss?p=lobo+antunes

Características do serviço de feeds de resultados de pesquisa
Duas questões que se colocam a respeito dos feeds aplicados a resultados de pesquisa são o canal de difusão e o uso ou não do formato aberto.
Faz todo o sentido enviar as actualizações de uma pesquisa personalizada via leitor/ agregador de feeds e não via email. Aliás, já há reacções quentes nos utilizadores Google que, depois de terem de esperar tanto tempo pelo serviço, o vêem agora associado ao Google Alerts, que trabalha com base na notificação por email. Neste ponto, os concorrentes do Google distanciam-se e permitem a dupla via.
Quanto ao uso de formatos abertos, nem a Microsoft nem o Yahoo estão a cumprir as normas OpenSearch. Trata-se de uma norma de 2005 da empresa A9, subsidiária da Amazon, que procura que os resultados de pesquisa de um motor possam ser reutilizados (agregados, partilhados) por múltiplas aplicações e serviços através da sindicação dos conteúdos.

RSS de páginas no Youtube

Filtros de RSS para o Youtube

Quem conhece bem o sítio do Youtube, já se deu conta de que existe sindicação de conteúdos apenas para as páginas do vídeos mais comentados, mais vistos, os destaques,etc. Porém, Artem Russakovskii, engenheiro de software que trabalha no motor Blinkx, desenvolveu uns feeds que podemos usar com muito proveito, filtrando o que nos interessa do que vai entrando no Youtube.

Deixa no seu site três sugestões de personalização de filtros para o Youtube. O sublinhado nos URL é meu e serve para indicar o que varia na expressão. Para experimentar, basta copiar cada um dos endereços e substituir a palavra ilustrativa pela que desejarmos. Funciona muito bem. Experimentem!

  1. Filtrar por tag. Ex. http://www.youtube.com/rss/tag/elearning.rss
  2. Filtrar por criador (user). Ex. http://www.youtube.com/rss/user/youtube/videos.rss
  3. Filtrar por palavra que se encontre em qualquer parte do registo. Ex. http://www.youtube.com/rss/search/wall%20street.rss (2 palavras) ou, por exemplo, http://www.youtube.com/rss/search/iphone.rss (1 palavra)

A imagem apresenta os resultados da pesquisa por RSS que poderemos copiar no nosso serviço de feeds, recebendo de futuro os vídeos que contenham o termo “iphone” na sua descrição de feeds.


Feeds, um mecanismo indispensável

Dada a imensidão de fontes de informação na Internet e a rapidez da renovação dessa informação, surgiu um mecanismo extremamente útil e versátil, que uma vez experimentado, não se dispensa mais. Falo dos Feeds, palavra em inglês para designar um conjunto de dados transferidos de máquina para máquina de forma automática, sem que seja necessária a intervenção humana.

O ícone genérico para esta funcionalidade é o do RSS .

Vantagens no uso dos feeds

Simplificar a actualização da informação que nos interessa é já um argumento de peso para usar feeds. Mas as vantagens não ficam por aí. Veja-se a lista de benefícios:

  • selecção pessoal das fontes de informação
  • recepção das novidades logo após publicação
  • proliferação de programas de leitura de feeds, havendo-os para todos os gostos
  • gestão simples das fontes: acrescentar, remover, organizar
  • protecção contra spam, vírus, etc., ao contrário do que acontece com as subscrições por email
  • gestão mais saudável do email, que não é inundado por “novidades”

Funcionamento dos feeds

Este mecanismo assenta na arquitectura servidor/ cliente. Isto é, o fornecedor de conteúdos —em geral um jornal, um autor de blog— disponibiliza um endereço que o utilizador final pode subscrever sem custos. Utilizando um programa de feeds, a pessoa copia essa direcção do jornal ou blog para a lista pessoal de feeds. Nesse mesmo instante, as últimas notícias são carregadas no seu programa e daí em diante isso far-se-á automaticamente, sem que o interessado tenha que digitar o endereço no navegador e incomodar-se a verificar se há novidades.

A tecnologia por detrás é conhecida por Pull Technology, já que o programa escolhido de feeds é que puxa as novidades do servidor onde estão alojados os conteúdos para difusão.

Neste vídeo divertido da Common Craft são apresentadas as vantagens e o princípio de funcionamento.

Soluções para ler feeds

Os feeds tornaram-se tão essenciais na Rede que o seu uso estende-se a todas as aplicações e ferramentas da web. Enumero as principais, embora haja variantes.

1. Páginas web personalizadas. Os feeds podem ser introduzidos naquilo que ficou conhecido por página de entrada na Web. É o caso do iGoogle, do PageFlakes, do Netvibes, do My Yahoo ou My MSN. Qualquer destas aplicações dispõe da opção de acrescentar conteúdo novo. Na imagem, pode-se ver essa opção no Netvibes. É uma forma muito prática, porque assim que nos conectamos, temos oportunidade de consultar as novidades dos serviços que subscrevemos. É muito fácil acrescentar novos feeds, mas também remover, quando concluímos que afinal não nos interessam.

2. Leitores de feeds na web. Serviço em que a pessoa se regista e acede quando quer ler os seus feeds. Caso do Bloglines, Google Reader. Permitem ler, importar e exportar feeds em ficheiro XML, partilhar feeds com amigos, organizá-los por categorias em estrutura de árvore, associar etiquetas, etc. Na imagem podemos ver o Google Reader que não difere muito de outras ferramentas.

3. Feeds nos navegadores. Qualquer navegador – Firefox. Internet Explorer, Safari…, dá a possibilidade de incluir feeds. Em geral, essa funcionalidade está disponível nos Favoritos. O procedimento no Firefox requer que visitemos a janela dos Marcadores. Uma das opções é “Subscrever a esta página”, precisamente a que surge na caixa do navegador e está indicada com o ícone de Feeds.

4. Programas de email. Outra opção de gerir os feeds é através do Outlook, Thunderbird, Kontact, etc. São em geral suites formadas por aplicações PIM (Personal Information Management), tais como gestor de correio, gestor de contactos, calendário, gestor de feeds. Apresento na imagem o Kontact, usado com o Linux. À semelhança de outros, oferece um serviço de gestão de feeds, neste caso, o AKgregator.

Formato dos feeds

O formato mais comum é o RSS (Really Simple Syndication), mas também existe  o Atom (Atom Syndication Format). A base de ambos é o XML e/ou o RDF/XML.

Em termos cronológicos, o RSS antecedeu o Atom, por isso é frequente designar a sindicação de conteúdos em geral por RSS. No entanto, o aparecimento do formato Atom veio na sequência da falta de interoperabilidade e falhas no RSS. O Atom é mais robusto e versátil, porque usa a estrutura de metadados RDF. Assim, quando existe a opção de subscrever nos dois formatos, é preferível eleger o Atom.

Há serviços e serviços…

Serve este capítulo para referir que os serviços de actualização são criados pelos fornecedores desses conteúdos, que estão obviamente interessados em que as pessoas os leiam, os refiram e os difundam em blogs, websites, etc.

Há-os especificamente para textos, mas também para podcast. Começa agora a aparecer o RSS-narrator, um tipo de feed com o mesmo objectivo geral, mas com a particularidade de converter o texto em voz. O utilizador não lê, mas ouve as novidades, algo bastante prático quando se conduz para o trabalho. Veja-se o caso do Talking News que além de usar os podcasts disponíveis nos media seleccionados, converte igualmente texto em áudio.

Acontece que há serviços de Feeds que permitem uma selecção mais refinada da informação pretendida. Nos dois jornais de referência escolhidos, o Expresso e o El País, pode ver-se a diferença e o impacto na qualidade do serviço para o utilizador final.

Graças aos filtros disponibilizados pelo jornal El País, foi possível introduzir na “Agulha no palheiro” as 10 últimas notícias na área da tecnologia, sendo a área que sigo atentamente e que está relacionada com a temática tratada neste blog. Desta lista de apontadores, os leitores podem consultar alguma notícia que lhes desperte curiosidade.