lunes, 30 de abril de 2007

How linkable is your blog post?

Voy a analizar esto a ver si sirve para Bitácora Kcslot y otros blogs



How linkable is your blog post?
From here. The idea is that the more you can say yes to, the more likely it is that people will read to what you write. Not that there's an exact formula for it, but most of these are good.

* My post title includes a pun
*
* My post title includes more than 10 words
* I start off by explaining the post’s core idea
* My post contains more than 3 paragraphs of my own writing
* I spell-checked my post
* The post’s idea was “sleeping” inside my head for several weeks before I wrote it down
* I was the first to report on this (as far as I know)
* This post might have profound implications for a company, celebrity, or politican
* This post might have profound implications for my readers
* This post is in-tune with the overall topic of my blog
* I illustrated my post with screenshots, drawings, or cliparts
* I end the post with a “bang”
* I use the Creative Commons license to share my content
* I emailed friends to let them know about my article
* I validated my blog’s HTML after posting
* I use a standard blog template
* I read my own post for clarity at least twice
* I use links, bold/ italics, or lists
* I’m blogging daily
* My blog is read by many people
* My post is English
* I’m reporting on first-hand experiences
* The subject I’m writing about is close to my heart
* My post includes a video, audio file or ZIP download
* Readers can comment on my post
* I submitted the post to Digg
* I submitted the post to Metafilter
* I submitted the post to Boing Boing
* I sent the post to a mainstream news source
* My post is above 250 KB (including images)
* I checked my blog’s appearance in at least 2 browsers
* I include a large ad on top of the main content
* My ad colors resemble my main content
* I decrease the font-size quite a bit to make the layout look better
* I’m citing my sources and delivering proof for what I say
* I’m using affiliate links inside my post’s content
* My post might be considered controversial by many
* Some parts of my post make people laugh
* My server is fast to deliver pages, even under heavy traffic
* My full name is included at the beginning or end of the post
* My “About” page is linked in the navigation
* My “About” page includes my bio and photo
* I’m using several JavaScript widgets (like counters) in my blog
* I’m checking my blog statistics every few days
* I consider myself an expert on this post’s topic
* My page includes animated ads
* My page includes an ad that pops up or is overlaid on the content



Some of them are a bit strange, though. More than 10 words in the the title? Why? Putting a large ad at the top? No, that doesn't exactly help you get linked by anybody. Ads don't attract visitors. Maybe they help you monitize the site, if they don't scare people away. No, a pop-up overlaid ad is about the most idiotic thing you can do if you want somebody to link to your blog without being paid for it. Everybody hates them, except for the spammers who think them up. What's the guy thinking?



7 Aug 2006 @ 18:27 by Sean Murphy @64.32.174.115 : Not all of the elements are positive
about 40% of the items are actually negatives, (e.g. puns, more than 250K post size, more than ten words in title...) This is actually a very sophisticated analysis tool (you can disagree with his advice but it's presented in prioritized fashion). Many of the items are actually common "negatives" that make a post less likely to be linked. You should check some of the boxes you found strange and then read all the way to the end of the feedback, I think in most cases it will recommend NOT doing them.


sigue:

Based on your test results, here are the top 10 tips (ordered by importance) on how you can improve your post::

1.

Make sure you write something original, and not just a few sentences. When people link to content, they usually go straight to the source... so if your blog doesn’t have much content, or just links to the real content (which is nothing bad, it’s what link blogs do), don’t expect to get too many backlinks.
2.

The worst possible thing to happen is that just when your post takes off, your server goes down from traffic. When you want to take your blog to the next level make sure you are up to it with a fast and reliably strong server package. Just imagine you’re on the Digg frontpage and your server goes down... how likely is it that a) people come back to your post the next day and b) people digg your post? Not very!
3.

Sometimes, a small illustrative or explanatory image can go a long way to improve the linkability of your post. It just makes an article feel more fun, and more complete. Naturally not everyone’s an artist or designer, but there are many Creative Commons licensed photos around on Flickr and others.
4.

It’s good practice to use an “inverted pyramid” style of writing online. This means that you start off by explaining the main idea of your post, and you later expand on the idea with more details. This way, people with little time can easily decide whether or not they like your post. After all, if someone doesn’t understand what you want to talk about, that someone might just leave. “Prime” your audience in the first sentence so they know what to expect.
5.

There are many potentially interesting blog posts people don’t pass on simply because it’s unclear where the information is coming from (or it’s unclear whether or not it’s true in the first place). Make sure to avoid this by clearly citing your sources (e.g. a linked “According to the NYT today..."), and by always giving as much proof as possible (e.g. in the form of a screenshot, which while not a final proof, is still a good hint your content is authentic).
6.

If your blog is in a language other than English, it won’t be able to easily attract a worldwide audience (as unfair as that may be). If you’re blogging about a topic of global interest, and your grip on English is OK, then it’s best to post in English even if that’s not your native language.
7.

If you blog daily, you increase the chance of people actually noticing your latest blog post. Not everyone uses an RSS reader.
8.

You should read your own post several times to check if you made everything clear. Did you talk about B without explaining A first? Did you omit an argument that is necessary to reach your conclusion?
Also, make sure that a newcomer to the subject can easily follow your explanations. (You don’t want to only write for an audience of experts, even if your blog mostly attracts this audience... who knows where a link to your post might end up!)
9.

Write about what you know – the more you are an expert on something, the more likely your view on this issue helps others. (Note that the more you cover a specific topic, the more you will become an expert on it... so keep blogging.)
10.

Sometimes the best post ideas are the ones covering a subject you care deeply about (and do care about for a long time already).

About this test

Checking dozens of links daily for Google Blogoscoped, I realized there are several factors that make me link (or not link) to other blog posts. I’m sure every other blogger experiences the same. It’s almost like you build a “spam filter” in your mind, and if too many things seem to be wrong with the post, you don’t link to it – or vice versa, when a lot of things are “right” with the post you just have to link to it. It’s an intuitive choice but I think it consists of various micro-choices, which I tried to formalize with the test to help others create more linkable posts.
Linkability shouldn’t be your main goal when blogging, but it’s a good indicator of how approachable and interesting your writing is.
– Philipp Lenssen, philipp.lenssen@gmail.com, May 2006

http://www.howlinkable.com

"[A] nifty little quiz that aims to determine how likely it is that someone will link to your blog post ... the results page offers up tips and advice based on the way that you answered the questions."
– Search Engine Guide

viernes, 27 de abril de 2007

Problemas con Technorati

Estoy intentando saber porqué Technorati no indexa correctamente los links de los blogs que hay en blogger a blogs que están fuera (dejo para otro día cómo hacer backlinks a blogger)

El caso es que en este blog hay varias menciones a Bitácora Kcslot y no he conseguido que se liste en Technorati aún.

¿Si no logro que se vea un blog que yo mismo controlo, como lograré que se vean blogs de otros que también me listan?

ultima prueba con technorati

Entre mis blogs está Bitácora Kcslot, de la que en la barra lateral podeis ver las útlimas entrads

viernes, 20 de abril de 2007

Google y la venta de enlaces

Matt CuttsMatt Cutts sale al paso de preocupaciones como las expresadas en este artículo mío de la semana pasada en Libertad Digital, y solicita la denuncia de sitios implicados en la venta de enlaces a clientes para elevar artificialmente resultados en el buscador. Específicamente, Matt pide que mientras desarrollan una herramienta para la denuncia de este tipo de enlaces, utilicemos la herramienta de reporte de spam en su versión autenticada o anónima incluyendo la palabra “paidlink”, con el fin de poder investigar maneras de “aumentar las capacidades de los algoritmos existentes”. Matt comenta que los reportes pueden ser tan simples como un simple vínculo a una página que incluya enlaces pagados, y la palabra clave “paidlink” para poder rastrear esas denuncias fácilmente.

En los comentarios de la entrada se ha liado la mundial. Pero lo importante es que la cosa parece que se mueve: el buscador que un día nos vendió la idea de los resultados no manipulados ni mediatizados por transacciones comerciales intenta defenderse contra los que lo manipulan creando parques de páginas en las que venden enlaces para posicionar mejor a sus clientes. El problema no es simple: quienes desarrollan este tipo de actividades, las financian en parte mediante anuncios de AdSense de los que Google extrae un beneficio económico, lo que conlleva un problema de agencia, un conflicto de intereses importante: cuantas más empresas crean y posicionan este tipo de páginas con enlaces en venta, más dinero gana Google por publicidad, pero más decae la calidad de los resultados del buscador. Son necesarias medidas por parte de los buscadores contra los excesos de los SEOs que, llevados por una codicia desmedida, van más allá de velar porque sus clientes tengan páginas en las que su contenido sea entendido, interpretado e indexado con justicia por los buscadores, y pasan a técnicas más o menos encubiertas de auténtico “black hat”.

(Vía Error500. La “tarjeta de colección” de Matt Cutts viene de Google Blogoscoped)

martes, 17 de abril de 2007

How to Use the Universal Ranking Equation

There are four things that influence your search engine rankings:

  1. What you do with your Web content
  2. What other people do with their Web content
  3. What the search engines do with their data
  4. What people search for

If you could quantify those things, you’d have a formula that outlines how search engines determine rankings. You would not be able to plug in all the right numbers, but you could certainly plug in your numbers. With some decent competitive research, you could also plug in other people’s numbers. With some acceptably sparse search engine analysis, you could plug in “working” numbers for each search engine.

The problem with that model of analysis, however, is that most SEOs are inclined to use the wrong kinds of numbers. The right kinds of numbers for an equation are difficult to pin down, so I’m willing to cut the SEO community some slack. Any evaluation of formulaic SEO is undoubtedly based on personal opinion and bias.

But what do you do with your content? You create it, but the act of creation is not quantifiable. You “optimize” it, but we don’t all agree on what constitutes “optimization” and how do you quantify optimization anyway? You also promote your content, hopefully earning links to help improve your visibility and rankings.

We can quantify these facts in an abstract way, using Boolean values. You always get a 1 for content you have created. Consider that a free point. Since we can’t agree on what constitutes “on-page optimization”, everyone who makes an effort gets a 1 for trying. And if you know you got at least 1 inbound link you don’t control, give yourself another point.

So most SEOs score at least a 3 for effort in what we could call the Yp value.

Do you know who your competition is? Don’t go searching on your favorite keywords. Ask yourself: “With whom do I compete for customers/visitors?” You should see these sites across multiple keywords. Can you name 9 of them? Any site that sits in the top 10 results for 2 or more of your (unrelated to each other) keywords is a competitor. So, if you and Joe’s Jewelry both rank for “diamond rings” and “moissanite jewelry”, you’re competitors. And you don’t have to limit yourself to the top 10. You can look at the top 100 results for each keyword. Maybe some of your competitors are struggling as much as you are.

However, increasing the scope of the results increases the complexity of the term we’re trying to defnie. You need to quantify the number of sites you compete with. That number increases dramatically (although not exponentially) as you increase the number of keywords and the number of results per keyword. Combine these 3 factors together and you get the term Mc = Known Competitors * Competitive Keywords * Results per keyword.

The Mc term has nothing to do with Einstein’s relativity equation. But it gives you a working number to plug into the second term of our developing equation. Given a competitive field defined as Mc, you have to know whether they optimize their Web sites, whether they have inbound links, and whether they have content. It might seem like they all have content, but unlike you some people get good rankings without content.

Ideally, you have to take the average values for your competitors, but let’s simplify things for the sake of illustration and say that the term for “what other people do with their pages” is defined as Op = Mc(Avg. Optimized) + Mc(Avg. Linked) + Mc(Avg. Content). The maximum value for Op = 3Mc.

So now we have two terms, Yp and Op, that can be combined to determine the Competitive Field: Cf = Yp + Op, or Cf = Yp + 3Mc. Assuming the best you can hope for, Cf = 3 + 0Mc. The most competitive value is defined as Cf = 0 + 3Mc (this is, by the way, a meaningful equation that describes any competitive field you have not yet entered). But going forward let’s say that your numbers look like Cf = 3 + 3Mc.

The Cf value at least gives you some indication of what you may be dealing with, but you have to arbitrarily define the scope of that field to give yourself a frame of reference. I would recommend a maximum of 10 keywords and a maximum of 20 results per keyword. Scope of Field: Sf = Max(targeted keywords) * Max(results per targeted keyword).

The Sf value sets an upper limit on your research, but it also defines the boundaries of your normalized equations.

Let’s skip the 3rd term in our equation and look at the last term. What do people search for? Basic keyword research should give you an approximate idea of how many related expressions people used in the past 30 days or so to find content related to each of your targeted keywords. So the scope of the Query Space looks like this: Qs = Max(targeted keywords) * Max(queries per targeted keyword).

That second term is a bit tricky. Let’s say people use 20 expressions to search for “moissanite jewelry” and 60 expressions to search for “diamond ring”. You define Qs as Max(targeted keywords) * 60.

Why? Because that is the worst-case scenario. You have to assume that people search for your content in ways you cannot guess. Your best guess is most likely to represent the largest number of variations on a keyword that people use. You could, however, reduce the scope of your Query Space by taking the average of the values your research.

So now we have three terms to work with: Yp, Op, and Qs. We know that Yp + Op = the Competitive Field. Qs represents the interest that people have in that field. You can use the Query Space to modify the Competitive Field in a number of ways, but we’re looking for why pages rank the way they do.

Intuitively, we know that the larger the Query Space, the less likely any one site will dominate the Query Space. So let’s multiply the Competitive Field by the Inverse of the Query Space: Cf * 1/Qs = Cf / Qs. This ratio tells you how challenging a Query Space is. The closer to 0 this value becomes, the less challenging it is.

Intuitively, what we’re describing here has been called “the long tail of search” by many people. That is, the more queries you evaluate, the more likely you can achieve high rankings for at least one query (and hopefully more).

So let’s call that expression the Competitive Factor of the Long Tail, or Cl. We know that a lower Cl value is better for us and a higher Cl value is worse for us.

So now we’ve defined three of our four terms, that leaves only “what the search engines do with their data”. How do you quantify that? And what does such quantification mean?

We’re looking for a number that gives us a probability of ranking well in a competitive query space. The search engine algorithms become the wild card. You have to plug in some sort of value for the search engine term or the expression becomes meaningless. But keep in mind that whatever value you use will always be variable.

Call that variable Sa for Search Algorithm. The Search Algorithm becomes more complex as you factor search engines into it. Each search engine has its own algorithm, but they all rank on the basis of Relevance + Value. Relevance carries the most weight in search results rankings so we can weight these terms something like this: Sa = Weighted Relevance + Weighted Value.

But what weights do search engines apply? That’s the million dollar question. However, let’s give some ground to the link lovers here and say that the weightings are nearly equal. So we’ll go with .51 for Relevance and .49 for Value. If we use Sr for Search Relevance and Sv for Search Value, Sa can be defined as: Sa = .51Sr + .49Sv.

So here is the real problem: what can we plug in for Sr and Sv that is actually meaningful? One solution is to look at how relevant results for queries are and how valuable the ranking sites for those queries tend to be. Holy Data Collection Calamities, Batman! Do we really have to look at all those sites?

Yeah, that pretty much is the only way you can complete the formula (I never said this would be quick and easy). But given that we cannot quantify the algorithms of the various search engines (we don’t know what those algorithms are), the best we can do is quantify the results they show for our defined Query Space. And then we have to take into consideration how many search engines we want to evaluate.

You can apply the formula (which I have not yet fully defined for you) to 1 search engine or several. It’s scalable. The Sa value simply becomes the average of the Sa values across your search engines — divided by the number of search engines (because the likelihood of any page having the same ranking on all search engines is lower than the likelihood that it will be deemed relevant for the same query on all search engines).

So let’s use the following term WA(Sa) (Weighted Average of Sa) in our equation: WA(Sa) = Avg(Sa) / Max(search engines), or WA(Sa) = Avg (.51Sr + .49Sv) / Max(search engines).

So now our formula looks like this: URE = WA(Sa) * (Cf / Qs).

The Weighted Average of the Search Algorithms multiplied by the ratio of the Competitive Field to the Query Space determines how likely your pages are to rank for any given query.

It’s an estimation or approximation, not a prognosticating tool. If you take the time to do the research and quantify it this way, you have a crude tool to help you determine how likely it is that your page will be successful across a query space. It’s crude because we lack precision, but it’s a metric that reveals a great deal of information about how competitive any collection of search results actually is.

You could, in fact, pretty easily code a tool to calculate URE values for various query spaces (assuming the tool can get by with some heavy search results scraping). A URE calculator would be a better SEO comparative analysis tool than anything out there right now (most of them are pretty cheesy, and the few that do help are the ones that let you look at on-page factors without assigning any arbitrary values to anything).

I wouldn’t look for a Universal Ranking Equation tool any time soon, but it does establish a metric that rises above opinion. There are other metrics that can rise above opinion as well. In SEO theory, you want unbiased metrics because they are not as misleading as the biased paradigms favored by so many SEOs.

All we have to do is keep looking and eventually we’ll find them. That is, after all, what the Search Engine Optimization Method tells us: Experiment. Evaluate. Adjust.

Optimizing with content zones


Every Web page can be divided into five zones: the header, the left and right margins, the footer, and the body. Many page templates follow this model closely. Outside the body, the most heavily used content zone tends to be the left margin, but most people only use that space for navigation.

You can divide the left and right margins, as well as the body, into sub-zones. Some site designs implement “above-the-fold” and “below-the-fold” sub-zones, although where the fold lies is subject to variation depending on screen resolution, browser window size, font settings, etc.

You cannot reliably design a Web page to place content below the fold but you can certainly divide your margins and body into upper and lower sub-zones. You can also divide your header and footer into 3 sub-zones each as well.

When you look past what you typically reserve full zones for and consider what else you can do with those zones, your on-page optimization gets a massive boost. That doesn’t mean you should attempt to use every available zone. It does mean that you should strive to use your page layout for more than one purpose.

When you create a Web page, its primary function is presentation. That is, you want the page to do something for visitors. Maybe the page redirects to another page (I’m not saying you should do that — only that redirection is a form of presentation). Maybe the page presents search results. Maybe the page presents information about a product or service.

A common secondary function for a Web page is to create brand value. Web sites that implement uniform templates across their pages usually include a masthead and/or logo that brands each page as part of an entity. Large eCommerce sites actually incorporate sub-brands into their page templates. All those tabs that take you to special product sectioin create sub-brand visibility.

Intrasite navigation is another common secondary function for typical Web pages. If nothing else, a well-designed page should help people get to other areas of a Web site. Maybe the page doesn’t offer much information, but it should certainly provide navigation.

But though Presentation, Branding, and Navigation are the usual functions of Web pages, you can sub-divide these functions.

For example, your presentation can be divided into a main presentation and a secondary presentation (like a side bar or mini-article in the margin).

As I noted above, the page Branding can include sub-Branding for other sections of the site. But Branding can also incorporate cross-branding for other Web sites. Many Web site operators sell ad space on their most prominent pages.

Navigation may coincide with Branding, but navigation can work toward four objectives:

  1. Navigation can lead off-site
  2. Navigation can lead to another section of a site
  3. Navigation can lead to other pages within the same section
  4. Navigation can lead to sub-sections of the current page

Navigation may also be used to raise popups with limited interfaces.

If you need to optimize a page for more than one query expression, consider creating multiple content zones to handle the different expressions. Rather than dilute any particular block of text’s relevance for one query expression, just separate the content into relevance zones.

If you incorporate Hx headers into your page design, however, you should continue to honor the original markup conventions. Use H1 text only to describe the entire page. Use H2 text to label each content (relevance) zone. Use H3 text to sub-divide each zone. Etc.

The advantage of implementing content zones into your design is that you can easily update your pages by zone rather than by template. Why change an entire template if you just need to change one section of a page?

Content zones may contain their own embedded links, relevant only to their own content. Inbound links use take name anchors to point to specific content zones (although this practice is not very common). Each zone can, in fact, act like a miniature Web page in some respects, offering images, links, and text to your visitors.

Working with content zones or page zones helps you understand your content better. You can look at how helpful the navigation and branding are. You can judge how crowded your pages are (maybe it’s time to break up the content and create more pages). When you have a constantly evolving content page, dividing it into zones may help you manage that growth.

Don’t get hung up on heat patterns and eye-tracking studies, however. Think of what you need to do to provide your users with the most value. Think of why it’s important for people to choose your page in search results for multiple queries.

Break out of monolithic page optimization and start thinking about how each section of a page can help advance your goals of increasing your convertible traffic. But also strive not to let your pages become too busy. I have to admit that I still sometimes find myself looking at a finish design and thinking, “This page tries to do too much.”

But we can talk about that another time.

martes, 10 de abril de 2007

Manifiesto contra la crispación política. Pásalo

I.- Muchos ciudadanos de nuestro país observamos con creciente inquietud el grado de crispación y enfrentamiento en que discurre la vida política española. Es propio de sociedades democráticas el debate, la confrontación dialéctica, la crítica acerba y, como no, la utilización de los derechos de expresión o de reunión con el fin de manifestar la protesta o el apoyo. Nada de lo anterior nos debe, pues, preocupar ya que forma parte de la normalidad democrática.

II.- Lo que nos inquieta, por el contrario, es que el debate político argumentado esté siendo suplantado por la descalificación y el insulto; que el normal funcionamiento de las Instituciones sea trastocado y se niegue legitimidad a quien gobierna por voluntad de la ciudadanía; que el derecho a una información veraz se sustituya por la manipulación sistemática de los hechos a base de mentiras o de medias verdades que confunden a la opinión pública. Conjunto de procesos indeseables que si bien no han conseguido, todavía, provocar una quiebra en la sociedad española, muestran ya indicios preocupantes de que se puede estar gestando esa fractura que conviene detectar y soldar cuanto antes.

III.- Creemos, sinceramente, que este clima crispado no obedece a la situación real de España. Es como si una realidad virtual, construida ex profeso con fines partidarios o electorales, se sobrepusiera a unos hechos objetivos que quedan así, la mayoría de las veces, sepultados por una avalancha mediática que se concentra en ciertos temas y se olvida de todo lo demás. Bien es cierto que nuestro país sigue teniendo problemas serios sin resolver sobre los que, por cierto, no se incide ni se ofrecen alternativas desde la oposición. Pero nadie, con un mínimo de honestidad, podrá negar que la economía marcha razonablemente bien, que el desempleo ha disminuido, que las fuerzas sociales han alcanzado importantes acuerdos, que se han producido avances no desdeñables en derechos sociales y civiles y que, en general, ha aumentado el bienestar de la población aunque, desde luego, no en igual medida para todos.

IV.- Ante la evidencia de estos hechos, toda la carga opositora se ha concentrado en unos supuestos peligros para la unidad de España y en una no menos supuesta rendición del Estado ante los terroristas. Es decir, nada menos que “España se rompe y España se rinde”. Conviene afirmar, pues lo contrario sería faltar a la verdad, que tamaña desmesura no tiene nada que ver con la realidad, al margen de la opinión que cada uno tenga sobre cómo ha administrado el Gobierno tan delicados temas. Las reformas de los Estatutos de autonomía, salvo el de Cataluña, han sido aprobadas por los dos partidos mayoritarios y supone una falsedad obvia sostener que el Estatut, surgido de las Cortes Generales, rompe la unidad de España. Se puede o no estar de acuerdo con la política antiterrorista del Gobierno, pero de ahí a sostener que la decisión, mediante resolución judicial, de que un preso, por muy criminal que sea, pase a la situación de prisión atenuada, ante el riesgo acreditado por los médicos de que puede fallecer, cuando le quedan 16 meses de condena por un delito de coacciones, es una rendición ante la banda terrorista ETA resulta insostenible. Si de lo anterior se deduce, además, que el Gobierno ha pactado ya con la banda, o sus representantes políticos, el futuro de Navarra, de Euskadi y de España, sin acreditar tan graves acusaciones, nos parece que se ha alcanzado tal nivel de exageración y extremismo que se hace inviable un debate racional. En este sentido, no es aceptable convertir la lucha contra el terrorismo en el eje exclusivo de la oposición a cualquier gobierno democrático. Esta postura no tiene antecedentes en la Unión Europea. Sobre todo cuando en los últimos años la actividad terrorista ha disminuido en comparación con los cientos de atentados de anteriores legislaturas.

V.- El exceso ha llegado a tal punto que desde organizaciones con amplias responsabilidades sociales y financiadas por el Estado se hacen llamamientos a la objeción de conciencia en el cumplimiento de leyes aprobadas por el Parlamento y desde partidos con funciones de gobierno se apela a la rebeldía civil frente a un Ejecutivo legítimo, aduciendo que la nación española está en peligro. En un Estado democrático y no confesional, las leyes las hace el Parlamento y todos deben acatarlas. La apropiación partidaria de banderas e himnos nos retrotrae a épocas felizmente superadas y sólo puede ser causa de división. Convertir la propia idea de España en bandería es propio de dictaduras y de ideologías extremistas. En democracia no se puede pretender torcer la voluntad ciudadana ni con soflamas, ni con manifestaciones y menos con confusas actitudes “caudillistas”. Es el voto y solo el voto el que debe decidir quién es el llamado a gobernar.

VI.- Esta política de confrontación se ha inoculado en esenciales Instituciones del Estado que deberían ser inmunes a las batallas políticas. Nos referimos a Institutos tan trascendentales como el Tribunal Constitucional. A veces da la impresión de que se producen movimientos, decisiones o maniobras tendentes a alcanzar objetivos que de otra manera no se lograrían (Véase el funcionamiento, en algunos casos del Consejo General del Poder Judicial) y que van en detrimento del prestigio y de la confianza que los ciudadanos depositamos en ellos.

VII.- Una situación de esta naturaleza no debería, en nuestra opinión, conducir al Gobierno a una actitud de confrontación, pero sí a una exigencia de liderazgo y de capacidad de propuesta. Una parte no desdeñable de la ciudadanía está confusa y es obligación de los gobiernos poner remedio al desconcierto. No es bueno olvidar que cuando la manipulación o incluso la mentira encuentran eco en las personas, ello obedece, generalmente, a una insuficiencia de claridad y de capacidad de comunicación por parte de aquellos que administran la cosa pública.

VIII.- En los próximos meses los ciudadanos vamos a tener ocasión de acudir a las urnas para votar en las elecciones municipales y, en ciertos casos, en las autonómicas. Será, sin duda, una buena ocasión- como siempre que los ciudadanos votan- no sólo de dirimir quien debe dirigir los consistorios y los parlamentos autonómicos sino también de exigir a los partidos y candidatos que se ocupen de los problemas concretos de los vecinos. Somos conscientes de que esta crispación inducida ha podido tener un efecto de hartazgo en los ciudadanos que los inclinen hacia la abstención. Nada sería más negativo en estos momentos. Los extremismos encuentran su espacio cuando la ciudadanía se abstiene y en esta ocasión cualquier inhibición no beneficiaría los avances sociales sino que propiciaría los retrocesos.

IX.- Nos gustaría apelar al buen sentido que las personas de nuestro país han demostrado siempre desde la recuperación de la democracia: que no nos dejemos arrastrar a la confrontación en base a la manipulación interesada; que evitemos dividirnos ante cuestiones en las que debemos mantenernos unidos como la paz, la libertad y la lucha contra el terrorismo; que defendamos el Estado de derecho, sus Instituciones y los avances civiles y sociales frente a los que pretenden hacernos retroceder en el tiempo.

Visto en: pido-lapalabra.blogspot.com

Podéis firmar en: asambleadeintervenciondemocratica.iespana.es

Dos gurús de internet impulsan un código ético en los 'blogs'

Dos gurús de internet impulsan un código ético en los 'blogs'

1. • Ambos expertos proponen evitar los comentarios anónimos y los insultos
2. • Los dos entendidos piden que las bitácoras contrasten las fuentes y respeten la intimidad

JOAN CAÑETE BAYLE
WASHINGTON

Si no fuera porque la iniciativa viene de quien viene, habría levantado muchas más ampollas en el ciberespacio. Pero Tom O'Reilly --el creador del concepto de Web 2.0-- y Jimmy Wales --el responsable de la enciclopedia on line Wikipedia-- se merecen al menos el beneficio de la duda por parte de los defensores a ultranza de la libertad sin límites en internet. Ambos han lanzado el debate de crear un código de conducta en los blogs para evitar insultos, la difusión de bulos y demás lacras del nuevo periodismo ciudadano e incluso han colgado un código de conducta para abrir la idea a la aportación de los internautas (radar.oreilly.com y blogging.wikia.com/wiki/BCC).
Según O'Reilly, el objetivo de lo que denomina Código de Conducta del Bloguero es contribuir a crear una "cultura que incentive tanto la expresión personal como la conversación constructiva". Para ello, los dos gurús proponen que los blogueros asuman la responsabilidad de lo que escriben y de los comentarios que sus lectores cuelgan en la bitácora. Ello supone borrar "contenido inaceptable", lo que incluiría insultos, amenazas, calumnias y material que vulnere los derechos de autor, la obligación de confidencialidad y el derecho a la intimidad.

DESOÍR A LOS 'TROLLS'
O'Reilly y Wales añaden otras normas de conducta: no publicar nada que no se diría en persona, responder en privado por e-mail antes que públicamente en la red si hay conflicto, tomar partido cuando alguien es atacado de manera injusta, no permitir los comentarios anónimos (al menos debe haber una dirección de correo real) y no animar mediante la confrontación a aquellos cuya única intención al participar en un blog es provocar (conocidos como trolls en la red).
En la versión del código de Wikipedia, abierta a las aportaciones de cualquiera, se propone que en caso de amenazas y calumnias el bloguero colabore con la justicia para perseguir al infractor si ha cometido un delito, y otra aportación indica que los servidores que acogen los ciberdiarios deben asumir la responsabilidad por la actitud de sus clientes. Además, O'Reilly y Wales proponen la creación de logotipos reconocidos universalmente que adviertan a los cibernautas de que la bitácora por la que navegan suscribe o no este código de conducta, con el fin de evitar acusaciones de censura. El código, en sus versiones más estrictas, obligaría a los blogueros a confirmar lo que publican con segundas fuentes.

70 MILLONES DE 'BLOGS'
El debate, como era previsible, ha corrido como la pólvora por la red, y ha encontrado tanto partidarios como detractores. Los primeros dicen estar hartos de insultos, verdades a medias y mentiras enteras que se propagan rápidamente y que minan la credibilidad de quienes se toman en serio su labor de blogueros. Los segundos se escandalizan por el concepto de "contenido inaceptable" y sus vagas fronteras, y hay quien acusa a
O'Reilly y Wales de burocratizar internet y de querer convertir las bitácoras en medios de comunicación tan censurados o autocensurados como los tradicionales. "No puedo creerme que realmente estés hablando de logos", comenta un cibernauta que se identifica como Shelley. En los foros de debate también se destaca que el consenso sobre un código es imposible: según Technorati, una compañía que elabora un índice de blogs, existen 70 millones de bitácoras y cada día se añaden 1,4 millones de entradas.
La propuesta de O'Reilly y Wales no surge de la nada. Wikipedia ya alerta de si el contenido de las entradas de la enciclopedia es fiable. Y es que tras el boom que han experimentado en muy poco tiempo, tanto las bitácoras como los espacios participativos de la red sufren una especie de crisis de crecimiento en busca de lo único en lo que los medios tradicionales siguen ganándoles con claridad --la credibilidad-- y de regular el caos sin coartar la libertad.

Dos gurus d'internet impulsen un codi ètic en els blocs

Dos gurus d'internet impulsen un codi ètic en els blocs

1. • Els dos experts proposen evitar els comentaris anònims i els insults
2. • Volen que les pàgines personals contrastin les fonts i respectin la intimitat

JOAN CAÑETE BAYLE
WASHINGTON

Si no fos perquè la iniciativa ve de qui ve, hauria provocat moltes més queixes al ciberespai. Però Tom O'Reilly --el creador del concepte de Web 2.0-- i Jimmy Wales --el responsable de l'enciclopèdia on-line Viquipèdia-- es mereixen almenys el benefici del dubte per part dels defensors a ultrança de la llibertat sense límits a internet. Tots dos han llançat el debat de crear un codi de conducta en els blocs per evitar insults, la difusió de falses notícies i altres xacres del nou periodisme ciutadà i fins i tot han penjat un codi de conducta per obrir la idea a l'aportació dels internautes (radar.oreilly.com i blogging.wikia.com/wiki/BCC).
Segons O'Reilly, l'objectiu del que denomina Codi de Conducta del Blocaire és contribuir a crear una "cultura que incentivi tant l'expressió personal com la conversa constructiva". Per a això, els dos gurus proposen que els blocaires assumeixin la responsabilitat del que escriuen i dels comentaris que els seus lectors pengen a la pàgina personal. Aquesta mesura comporta esborrar "contingut inacceptable", cosa que inclouria insults, amenaces, calúmnies i material que vulneri els drets d'autor, l'obligació de confidencialitat i el dret a la intimitat.

DESOIR ELS 'TROLLS'
O'Reilly i Wales afegeixen altres normes de conducta: no publicar res que no es diria en persona, respondre en privat per
e-mail abans que públicament a la xarxa si hi ha conflicte, prendre partit quan algú és atacat de manera injusta, no permetre els comentaris anònims (almenys hi ha d'haver una adreça de correu real) i no animar mitjançant la confrontació aquells que tenen com a única intenció al participar en un bloc provocar (coneguts com a trolls a la xarxa).
En la versió del codi de Viqui-
pèdia, oberta a les aportacions de qualsevol persona, es proposa que en cas d'amenaces i calúmnies el blocaire col.labori amb la justícia per perseguir l'infractor si ha comès un delicte, i una altra aportació indica que els servidors que acullen els ciberdiaris han d'assumir la responsabilitat per l'actitud dels seus clients. A més a més, O'Reilly i Wales proposen la creació de logotips reconeguts universalment que adverteixin els cibernautes que la pàgina personal per la qual naveguen subscriu o no aquest codi de conducta, amb la finalitat d'evitar acusacions de censura. El codi, en les versions més estrictes, obligaria els blocaires a confirmar el que publiquen amb segones fonts.

70 MILIONS DE BLOCS
El debat, com era previsible, ha corregut com la pólvora per la xarxa, i ha trobat tant partidaris com detractors. Els primers diuen que estan farts d'insults, veritats a mitges i mentides senceres que es propaguen ràpidament i que minen la credibilitat dels que es prenen seriosament la seva tasca de blocaires. Els segons s'escandalitzen pel concepte de "contingut inacceptable" i les seves fronteres poc definides, i hi ha qui acusa O'Reilly i Wales de burocratitzar internet i de voler convertir els blocs en mitjans de comunicació tan censurats o autocensurats com els tradicionals. "No em puc creure que realment estiguis parlant de logos", comenta un cibernauta que s'identifica com a Shelley. Als fòrums de debat també es destaca que el consens sobre un codi és impossible: segons Technorati, una companyia que elabora un índex de blocs, existeixen 70 milions de pàgines personals i cada dia s'afegeixen 1,4 milions d'entrades.
La proposta llançada per O'Reilly i Wales no sorgeix del no-res. Viquipèdia ja alerta de si el contingut de les entrades de l'enciclopèdia és fiable. I és que després del boom que han experimentat en molt poc temps, tant les pàgines personals com els espais participatius de la xarxa pateixen una espècie de crisi de creixement en busca de l'únic aspecte en què els mitjans tradicionals segueixen guanyant-los amb claredat --la credibilitat-- i de regular el caos sense coartar la llibertat.