La ICANN podría aprobar nuevos nombres de dominio en 2008


La ICANN ha confirmado varios nuevos dominios de primer nivel podrían estar disponibles para el verano de 2008, invitando a la comunidad a participar en los procedimientos para su creación.

Desde la implantación de los dominios .info y .biz para uso general en el año 2000 la ICANN sólo ha aprobado seis dominios regionales y específicos para industria, incluyendo el .asia, .museum y el .travel. Aunque la ICANN no especificó más detalles sobre los nuevos dominios, confirmó que trabajará para que el proceso sea más sencillo y los nuevos TLDs puedan ser creados más rápidamente en el futuro.
Por su parte la industria se ha quejado de que los nuevos dominios sólo servirán para acrecentar el cybersquatting, y se ha apuntado que los dominios .biz y .info no han tenido el éxito en la implantación que se había augurado.

Posted in <internet>, dominios, SEOComments (2)

Google lanza herramientas para eliminar contenido propio de su índice


Google ha desarrollado nuevas herramientas para ayudar a los webmasters a quitar contenido de sus páginas web del índice del buscador, algo que tradicionalmente se hacía con el fichero robots.txt. La nueva herramientas, accesible a través de Google Webmasters, permite además la copia en cache de las páginas e incluso retirar información que consideren personal o confidencial.

La ventaja de la herramienta de eliminación de contenido de Google es el proceso de desaparición de la página puede tardar entre 3 y 5 días, mientras que si utilizamos herramientas tradicionales como el robots.txt o las etiquetas META puede tardar incluso semanas en ocurrir.

La nueva herramienta puede encontrarse en Google Webmaster Central, accesible desde cuentas de Google verificadas. Una vez registrados con nuestra cuenta hay que seleccionar el sitio al que queremos retirar páginas y después entrar en Diagnóstico, donde encontraremos la opción de Eliminaciones de URL.

Al cursar una nueva solicitud de eliminación se cargará una pantalla con las siguientes cuatro opciones:

URL individuales: para que determinadas páginas individuales no aparezcan en el índice de Google.
Un directorio y todos los subdirectorios de su sitio web: para eliminar todos los archivos y subdirectorios de un directorio concreto de la página para que no aparezcan en los resultados de búsqueda de Google
Su sitio web íntegro: para eliminar la página web completa y que no aparezca en los resultados de búsqueda de Google
Copia guardada en la caché de un resultado de búsqueda de Google: para eliminar la copia en caché y la descripción de una página obsoleta o a la que se haya añadido una etiqueta meta noarchive

Para perificar la petición de eliminación Google necesita ver una etiqueta meta robots en la cabecera de la página con el valor “noarchive”. Una vez lo hayamos puesto en la página que queremos eliminar y lo hayamos subido al sitio pulsamos en ‘Enviar’ y el proceso habrá comenzado.

Posted in google, posicionamiento, SEO, tutorialesComments (0)

Autodiscovery: Enviar a los buscadores el Sitemap de la página web mediante el robots.txt


Hace ya tiempo que los archivos sitemap se han postulado como una de las mejores formas de indicar a los buscadores el contenido exacto de nuestras páginas, aunque con la pega de que había que enviarlos a mano. Sin embargo ahora es posible indicar a los 4 principales buscadores (Google, Yahoo!, MSN Live Search y Ask.com) la ubicación de tu archivo sitemap mediante el archivo robots.txt añadiendo la siguiente línea con los datos de tu web:

Sitemap: http://www.ponaquituweb.com/sitemap.xml

Por una vez los buscadores se han puesto de acuerdo en aplicar un ‘estandar’ que facilite la vida a los desarrolladores web y SEOs.

Posted in buscadores, código, diseño web, google, posicionamiento, SEOComments (0)

La forma correcta y usable de abrir los enlaces en una ventana nueva


Hace algún tiempo comentamos la forma de abrir los enlaces en una nueva ventana sin utilizar el atributo target=”_blank”. Sin embargo esa opción nos planteaba algunos inconvenientes, como la imposibilidad de especificar el tamaño de la ventana o la inefectividad en aquellos casos en los que el usuario no tiene javascript activado en su navegador.

Para lanzar enlaces en una ventana nueva de forma usable, fácilmente indexable por Google, podemos utilizar el siguiente código:

<a href="/index.htm" target="_blank"
onClick="window.open(this.href, this.target, 'width=300,height=400');
return false;">
Lanzar correctamente</a>

De esta forma podemos especificar el tamaño de la nueva ventana. Además se sigue utilizando el atributo target, con lo que el popup seguirá funcionando aunque el navegador no tenga el lenguage javascript activado.

EDITADO: Si queréis especificar que la nueva ventana lleve barras de desplaamiento teneis que añadir el siguiente parámetro “scrollbars=yes”. En el siguiente ejemplo podeis ver como sería un enlace usable con barras de desplazamiento:

<a href="/index.htm" target="_blank"
onClick="window.open(this.href, this.target, 'scrollbars=yes;,width=300,height=400');
return false;">
Lanzar correctamente</a>

VIA: Nosolousabilidad.com

Posted in código, diseño web, javascript, SEO, tutoriales, XHTMLComments (1)

El Centro para Webmasters de Google muestra ahora el anchor text de los enlaces entrantes a nuestra web


La gente de Google continua añadiendo características al Centro para Webmasters de Google. La última es la posibilidad de mostrar cómo te enlazan otras páginas, mostrando las palabras más usadas en el anchor text de los enlaces hacia tu web.

Los pasos para ver esta información son:
(1) Entrar en los Sitemaps del Centro para Webmasters de Google
(2) Pulsar en estadísticas en la parte superior
(3) Pulsar en Análisis de página a la izquierda
(4) Mirar a la parte inferior derecha de la pantalla, donde dice “Links externos hacia tu sitio”

Este informe, que se puede descargar mediante un boton debajo de la tabla, muestra los anchor text de enlaces hacia tu sitio más populares.

Via: Seroundtable

Posted in <miscelánea>, SEOComments (1)

Comprobar links rotos en páginas web con Xenu’s Link Sleuth


Una vez que se ha terminado una página web es conveniente realizar ciertas tareas complementarias que nos ayudarán en el posionamiento en buscadores. Una de esas tareas es la comprobación de links rotos, tanto internos como externos. Ya que comprobar los enlaces a mano puede ser una tarea harto tediosa podemos contar con herramientas de gran potencia como las Herramientas de Google para Webmasters, o una algo más clásica y que voy a tratar aquí: Xenu’s Link Sleuth

Xenu’s Link Sleuth analiza páginas web en búsqueda de enlaces rotos, verificando tanto enlaces normales como imágenes, marcos, plug-ins, fondos, mapas de imágenes locales, hojas de estilos, scripts y applets de java, algo por lo que no destacan las Herramientas de Google para Webmasters. Tras la comprobación el programa muestra un informe que puede subirse directamente a la web por medio de ftp o bien ser comprobado directamente.

Entre otras características interesantes del programa podemos encontrar la limpieza de su interfaz, la recomprobación de links rotos en caso de problema de red, formato simple de informes que pueden ser enviados por e-mail, soporte de sitios SSL, comprobación parcial de ftps y sitios en gopher, detección e informes sobre las URLs redireccionadas y la posibilidad de crear un mapa del sitio automáticamente en formato HTML para ser introducido posteriormente en nuestra web.

Descarga Xenu’s Link Sleuth

Posted in <miscelánea>, diseño web, SEOComments (0)

DNSCoop.com herramienta SEO para analizar tu web


dnscoopSi eres de los que se preocupan por el posicionamiento de sus páginas web encontrarás en DNScoop una excelente herramienta SEO. Con sólo introducir la dirección de una web en su barra de búsqueda DNScoop analiza parámetros como la antigüedad de un dominio, el ranking Alexa, el número de páginas que enlazan con esa web, el número de paginas indexadas en los diferentes buscadores, etc..

Enlace: www.dnscoop.com

Posted in <miscelánea>, buscadores, SEOComments (1)