Feeds:
Entradas
Comentarios

Kevin Kelly es el creador y editor de la revista norteamericana Wired que estudia el impacto de las tecnologías en la sociedad.
En la Conferencia EG que se realizó en 2007, Kelly manifestó cómo ve él a Internet dentro de 10 años (5.000 días). Así se refiere a Internet como «La máquina» que todo lo conecta y hace un adelanto de lo que será la web semántica al comentar que lo que se viene es la «Internet de las cosas».

Dice que en su primer etapa internet era una red de computadoras conectadas entre sí. En una segunda etapa (la actual) Internet son páginas conectadas entre sí, pero que en una tercera etapa Internet serán datos conectados entre si. Datos que se reconocerán, filtrarán y seleccionarán solos, generando una especie de inteligencia artifical sin conciencia.

En la Web Semántica todo estará conectado al «uno» y el costo de esta dependencia a la conectividad ser -según Kelly- la transparencia. La red sabrá todo de nosotros. Porque todo -inclusive nosotros- estaremos conectados a ella.

Los invito a escuchar a Kelly en este interesante video haciendo click en: http://dotsub.com/view/9433da14-bbd1-4252-8c5b-26a70d63171c

Lucas defendiendo su tesis

Lucas defendiendo su tesis

Cuando Lucas Baez me contactó por primera vez comunicándome su intensión de hacer su tesis de grado sobre la Enciclopedia de Misiones, me sorprendí. Me pareció extraño que alguien tamara un trabajo mío como objeto de estudio.

Pasó el tiempo y ayer, 1/9/09, Lucas se convirtió en Comunicador Social con su mirada sobre la EdM, que hoy comparto con ustedes.

De izquierda a derecha: Gustavo Irala, Lucas Baez, Patricia Bertolotti, Marcelino García y Omar Silva

De izquierda a derecha: Gustavo Irala, Lucas Baez, Patricia Bertolotti, Marcelino García y Omar Silva

Siempre es necesario saber adonde recurrir cuando estamos surcando el camino de construír nuestro propio blog.
Acá les propongo un listado de tutoriales que pueden serles de utilidad.

Blog Tutoriales

Tutoriales para Word Press
http://www.tips4wordpress.com/blog/video-tutoriales/

Foro de ayuda general
http://ayudawordpress.com/

Manual en PDF de cómo usar Word Press: http://www.vidadigital.net/blog/2008/05/31/manual-para-wordpresscom-en-formato-pdf/

Video turotial en inglés: http://www.youtube.com/watch?v=MWYi4_COZMU

Video Tutorial en Español
http://www.youtube.com/watch?v=9ZW9dKe1MP4&feature=related

Plugins para mejorar WP
http://ayudawordpress.com/downloads/

Tutoriales para Blogger

Ayuda de Blogger
http://help.blogger.com/

Tutorial Blogger de Ana Ovando
http://www.slideshare.net/aula21/tutorial-blogger-de-ana-ovando

Cómo crear un blog en Blogger
http://blogeninternet.blogspot.com/2009/01/como-crear-un-blog-tutorial-de-blogger.html

Video “Pasos para crear un blog”
http://www.youtube.com:80/watch?v=tgg7oDPRCs8&feature=related

Primeros pasos en Blogger
http://blogeninternet.blogspot.com/2008/11/menus-y-primeros-pasos-en-blogger.html

Crear entradas en Blogger
http://blogeninternet.blogspot.com/2008/12/crear-entrada-en-blogger-tutorial.html

Estructura y partes de un Blog
http://blogeninternet.blogspot.com/2009/01/estructura-y-partes-del-blog-tutoriales.html

Seleccionar una plantilla para tu blog
http://blogeninternet.blogspot.com/2008/12/seleccionar-plantilla-en-blogger.html

Insertar una imagen en Blogger
http://www.oscargp.net/2008/04/insertar-una-imagen-en-blogger.html

Insertar un videoen Blogger
http://www.oscargp.net/2008/02/insertar-video-youtube-en-blogger-blogspot.html

Insertar un contador de visitas
http://www.oscargp.net/2008/02/insertar-contador-de-visitas-al-blog.html

Crear un feed para que los usuarios se suscriban en blogger usando feedburner
http://www.oscargp.net/2008/09/permitir-a-los-usuarios-suscribirse-en-blogger.html

Alejandro Piscitelli afirmó en su libro «Internet la imprenta de fin del siglo XXI» (2005) que en el campo de las nuevas tecnologías estamos cursando “la tercera fase de un proceso de complejidad y emergencia largo de comprender” y esta tercera fase (que se inició a mediados de la década del ´90 y en la actualidad está en su apogeo) se caracteriza porque “dejamos de analizar la emergencia y empezamos a crearla”.

Y, sin dudas, esta creación tiene que ver con la interpretación cabal de la esencia de los nuevos medios que describíamos más arriba: los avances en los desarrollos de sofware que marcaron un salto evolutivo en la historia de Internet: la Web 2.0.

¿Qué es la “Web 2.0? En el año 2000 la caída del Nasdaq y la explosión de la burbuja tecnológica generada por las empresas virtuales llamadas Punto Com, demostraron que dicho modelo no se adaptaba a las lógicas de la red. Entonces las empresas y desarrolladores se vieron obligados a buscar nuevos modelos de negocios capaces de generar un renacimiento y evolución de la web. Así surge la Web 2.0, término acuñado por Tim O’Reilly en 2004 para referirse a una segunda generación de Internet basada en el sofware colaborativo y las comunidades de usuarios. La Web 2.0 pone al usuario en el centro de los sistemas: los usuarios son el valor.

Así, crecieron y se popularizaron aplicaciones que ponen al usuario en el centro del sistema, como destinatarios y creadores, consumidores y productores al mismo tiempo: “prosumidores”. Emergen así las redes sociales, la generación colaborativa de contenidos y las interacciones entre personas y tecnologías. La Wikipedia, You Tube, Flickr, Word Press, Blogger, My Space y Facebook, son algunos ejemplos de ello.

Todos estos desarrollos están apoyados en una serie de tecnologías que, entre otras cosas, explotan al máximo la bidireccionalidad de la comunicación digital -como Ajax y API- y permiten, bajo los dichos de Cobo Romaní y Pardo Kuklinski (2007:15) “que la red deje de ser una vidriera de contenidos multimedia para convertirse en una plataforma abierta, construida sobre una arquitectura basada en la participación de los usuarios”. Originalmente, en la Web 1.0 la programación estaba basada en las tradicionales “Páginas Web” estáticas realizadas en HTML, confeccionadas en programas como el Dreamweaver, sustentadas en una lógica del doble click (linkeo) y de actualización por parte del editor, con una centralización de la gestión de la información.


Los siete Principios Básicos de la Web 2.0
O’ Reilly (2005) señala que la Web 2.0 se asienta sobre siete principios básicos que deben ser tenidos en cuenta a la hora de diseñar de la una arquitectura basada en esos recursos. Dichos principios son los siguientes y serán desarrollados a continuación del listado.

1) La Web como Plataforma
2) Aprovechamiento de la inteligencia colectiva
3) Gestión de Bases de Datos como competencia básica
4) Fin del ciclo de actualizaciones de software
5) Modelos de programación ligera, fácil plantillado
6) Soft no limitado a un solo dispositivo
7) Incorporación de las experiencias enriquecedoras del usuario

La Web como plataforma

O’ Reilly (2005) plantea una migración del Modelo Desktop, o sea de la edición y almacenamiento de archivos y documentos en el escritorio del ordenador; al Modelo Webtop, que ofrece la edición y almacenamiento de documentos online, en espacios abiertos y destinados a que dicha información sea compartida y enriquecida por toda una comunidad de usuarios.

Modelo Desktop Modelo Webtop

Usuario Consumidor Usuario Productor
Web Corporativa Nace del concepto Peer to Peer (Napster)
Contenidos estáticos Contenidos dinámicos
Datos en el disco duro del ordenador Datos en Internet.
Sin participación abierta Con participación abierta
Sin gratuidad Gratuito

2) Aprovechar la inteligencia colectiva

La idea surge de la ideología del Open Source o Código Abierto, de la filosofía y la experiencia hacker.

Himanen (2002:1) declara que los hackers “se definen a sí mismos como personas que se dedican a programar de manera apasionada y creen que es un deber para ellos compartir la información y elaborar software libre”. Estos desarrolladores comenzaron en las décadas de los ’60 y los ’70 a utilizar sus conocimientos cooperativamente programando, de manera colaborativa y abierta, tomando el trabajo de otros y enriqueciéndolo.

La Wikipedia es uno de los ejemplos más emblemáticos del uso de la inteligencia colectiva. Y a partir de allí se han desarrollado otros softwares que permiten que los usuarios naveguen como quieren: en forma tradicional / pasiva o activa, creando y aportando colaborativamente.

Himanen (2002:31) define a la inteligencia colectiva como “un modelo abierto centrado en el libre intercambio de conocimientos”. Por su parte, Berners Lee (1996) – considerado como el padre de la web- desarrolló el concepto de “Intercreatividad” al que define como el “proceso de hacer cosas o resolver problemas juntos”. Para Levy (2004:21) la inteligencia colectiva es “un proceso de crecimiento, de diferenciación y de reactivación mutua de singularidades”, partiendo del principio de que cada persona sabe algo sobre algo, por tanto nadie tiene el conocimiento absoluto. De ahí la necesidad de la inclusión y participación de todos.

Cobo Romaní y Pardo Kuklinski (2007:15) mencionan que el pensador americano Howard Rheingold (a quien se le adjudica la invención del término “comunidades virtuales”) trabaja sobre el concepto de “multitudes inteligentes”. Según dichos autores, para Rheingold las comunidades virtuales son “similares a un ecosistema de subculturas y grupos espontáneamente constituidos que se podrían comparar con cultivos de microorganismos, donde cada uno es un experimento social que nadie planificó y que, sin embargo, se produce

Pierre Levy (2004:19) señala que el objetivo de la inteligencia colectiva es el reconocimiento y el enriquecimiento mutuo de las personas, y no el culto de comunidades fetichizadas o hipóstasiadas.” Sigue declarando el mismo autor (p.20) que esta inteligencia no sólo no es valorada sino que suele ser ignorada, despreciada, inutilizada y hasta humillada. Las TIC pueden ofrecen los medios para interconectar virtualmente a las personas y a los conocimientos que poseen, permitiéndole su explicitación, interactuando “dentro de un paisaje móvil de significaciones. Acontecimientos, decisiones, acciones y personas estarían situados en los mapas dinámicos de un contexto compartido, y transformarían continuamente el universo virtual dentro del cual toman sentido. En esta perspectiva, el ciberespacio se convertiría en el espacio inestable de las interacciones entre conocimientos y conocientes de colectivos inteligentes deterritorializados” (Idem).

Gestión de bases de datos como competencia básica

La Web 2.0 toma a las bases de datos como elementos centrales de la gestión de contenidos. El valor se produce de acuerdo a la masa crítica de usuarios que se consiga. Cuanta más gente haya compartiendo información en una misma base de datos, más rica será la red social y de contenidos que surgirá como emergencia.
Poseer esta información es clave y los usuarios co-desarrolladores otorgan valor comercial al producto.

Fin del ciclo de las actualizaciones de versiones de sofware
Hay un cambio copernicano en el modelo de negocio: del soft cerrado, con derecho de uso y bajo licencia, pasa al modelo abierto, gratuito, sobre la Web y que combina datos y aplicaciones. Ya no hay un soft que hay que “actualizar” permanentemente con versiones diferentes ya que, al estar online, el soft es abierto y compartido.

Modelos de programación ligera
Como la idea es que la mayor cantidad de gente utilice el software, se trata de hacerlo cada vez más simple y amigable. Hay una búsqueda permanente de la simplicidad: Menos es más. Se van ensamblando productos con creatividad y se utilizan aplicaciones Web híbridas que sirven para “alimentar” y “soportar” de contenidos: slideshere, flickr, you tube,widgets. Estas aplicaciones híbridas también se denominan Mashups

Sofware no limitado a un solo dispositivo
En la Web 2.0 el desarrollo del Soft debe contemplar que el mismo contenido podrá ser visto desde diferentes dispositivos (teléfonos celulares, PDA’s, etc) y desde distintas interfaces: Blogines, Google Reader, IGoogle, etc.
Por lo tanto, la forma en que se realizan los contenidos debe ser flexible para que éstos puedan adaptarse a las diferentes interfaces.

Incorporación de las experiencias enriquecedoras del usuario
Las interfaces deben contar con la capacidad de acceso en todo lugar y momento a los servicios web, con usabilidad familiarizada y sencillez de las interfaces de los sistemas operativos.

El pasado 27 de abril estuvo en Posadas este pensador español, colaborador del diario «El País».

Le preguntamos por el futuro de los medios masivos de comunicación y vaticinó que «los medios impresos están en crisis terminal».

Aquí están algunas de sus opiniones:


Fragmentos de la charla en el Centro del Conocimiento

La filosofía



La mirada de Europa a Latinoamérica


La educación

Aquí comenzaremos a pensar el fenómeno digital desde la perspectiva de la comunicación.

Básicamente y en su definición más estricta, la comunicación consiste en la transmisión de información de un sujeto a otro, tal como lo sentenció Lasswell (1936) hace más de 70 años: «quién dice qué a quién en qué medio y con qué efecto».
Es decir, la comunicación tiene un carácter social que comprende a todos los actos mediante los cuales los seres vivos se relacionan con sus semejantes para transmitir o intercambiar información. Comunicar significa poner en común e implica compartir en un contexto social determinado y con una historia particular. O sea, es un proceso ligado al comportamiento humano y a las estructuras de la sociedad.

Así, a fines del S. XVIII, surgen los medios de comunicación de masas o mass media como resultante de un proceso social y un modelo de vida muy concreto: la sociedad emergente de la revolución industrial que provoca cambios radicales en la economía, la política, la forma de vida y en los lazos entre las comunidades.

Estos nuevos actores se ubican como mediadores (o traductores) entre el poder y la ciudadanía con la función de “narrar” la realidad, interretarla y resignificarla. Es decir, los mass media crean el “gran escenario” en el que la realidad es narrada y al que hay que acceder para poder “existir” y actuar socialmente. En este sentido, constituyen uno de los pilares en los que se asienta el poder y contribuyeron enormemente al fortalecimiento de los Estados Nación.

La lógica de la comunicación masiva se basa en el esquema tradicional: un emisor emite un mensaje dirigido a miles de personas que muy eventualmente generarán un feedback. Con diferencias de estilos y características tanto la radio, la televisión y la prensa, se sustentan sobre esta lógica unidireccional, jeráquica y de uno a muchos.

Así funcionó el sistema hasta la irrupción de los nuevos medios basados en tecnologías digitales que subvirtieron el esquema comunicacional clásico. Gracias a los bits el receptor puede dejar su estado pasivo y convertirse en emisor y enviar su mensaje a otros miles de receptores/emisores que, a su vez, envían sus propios mensajes desarrollando así una estrutura en red.

En la Sociedad de la Información la realidad es relatada por miles de voces que se suman a una red global caótica, plurilingüe y diversa que al mismo tiempo -y a la manera de organismo vivo- es capaz de auto ensamblarse, auto organizarse, de generar conocimiento sobre la base del conocimiento y de construir una nueva realidad sobre la base de “las” realidades.

Ahora bien, cuáles son las principales características de estos nuevos medios?
En 1995, el matemático Robert K. Logan (1995) sostuvo que internet constituye un lenguaje. El sexto lenguaje. En una cadena evolutiva que comienza con el habla, la escritura, la matemática, la ciencia, la informática y el aprendizaje. Y sostiene que internet tiene su propia semántica y sintaxis (hipertextos e hipervínculos) y define cinco características esenciales de este lenguaje: comunicación de ida y vuelta, fácil acceso a la información, aprendizaje continuo, alineación, integración y comunidad.

Años más tarde, el profesor de origen ruso Lev Manovich al desarrollar la primera teoría de los nuevos medios -enmarcada en la historia de las culturas mediáticas y visuales- define a la computadora y a las redes emergentes como un “metamedio” (Manovich, 2006). Y para analizarlo prefiere apartarse “de las categorías conocidas como la interactividad y el hipermedia” . En cambio, pone el foco en el hecho de que el código binario permite una convergencia tecnológica antes nunca vista: la traducción de textos, imagenes, videos, películas, audio a datos numéricos a los que se accede a través de las computadoras. El resultado de esta traducción son los nuevos medios. Es decir “pura y llanamente otro conjunto de datos informáticos” .

Así, reduce todos los principios de los nuevos medios a cinco: representación numérica; modularidad, automatización, variabilidad y transcodificación cultural. (Recomiendo leer esta entrevista a Lev Manovich, realizada por Marta Garcia Quiñones y Daniel Ranz de la revista de pensamiento Mania, de la Facultad de Filosofía de la Universidad de Barcelona).

Más adelante profundizaremos estas clasificaciones, hoy simplemente las citamos como para comenzar a ampliar la mirada con respecto al medio en el cual trabajamos cuando desarrollamos los sitios web. Más que simples páginas cargadas con información, internet es un sistema complejo que permite no sólo la interacción humana y tecnológica sino que es capaz de automodificarse: es autopoiético .

Entender la complejidad de lo digital es la clave para manejarse en la red, pero también para poder pensarla sin quedarnos suspendidos, vagamente, en la línea de flotación.

Desde otro ángulo, Lawrence Lessig , creador de la licencia Creative Commons y uno de los estudiosos que más críticamente analizó el aspecto legal en Internet, fue el primero en remarcar la importancia del código digital como regulador del ciberespacio al afirmar que “la arquitectura (del software) es la política (de la red)”. El especialista Ariel Verselli lo explica así: “El código ordena el tiempo-espacio de internet, guía la asociatividad, y controla las delegaciones en el entramado sociotécnico. El código es aquel regulador que controla la actividad o proceso que se da en los extremos periféricos de internet: o sea, el espacio de las aplicaciones de internet, aquel lugar donde se encuentra la interfaz que relaciona, simbióticamente los actores humanos y los actantes no-humanos”.

O sea, a diferencia de los reguladores sociales clásicos como las leyes y el mercado, el código tiene una forma regulativa específica: el bloqueo/ exclusión, a través de los cuales limita el espacio y las conductas permitiendo o denegando accesos. O sea, regula nuestra participación digital con tanta o mayor fuerza que cualquier ley.

Es crucial entonces, tener en cuenta este aspecto a la hora de elegir el software que utilizaremos para nuestros desarrollos, ya que la opción o no de ciertas herramientas y recursos no sólo marcan tendencia sino que definen nuestra participación en la red.
En otras palabras: los criterios que utilizamos a la hora de diseñar el diagrama de flujos de un sistema definirán las políticas de acceso, la comunicación e interacción de nuestro sitio y, por ende, la ideología sobre la cual nos paramos a la hora de diseñarlos. Es ingenuo suponer que el uso de tal o cual tecnología son solo tecnicismos.

José Luis Molinuevo (2004), señala que las tecnologías no son un «anexo» externo a nosotros, sino herramientas atraviesan absolutamente la vida cotidiana al punto de terminar siendo co-constitutivas de nuestra subjetividad y objetividad y, por ende, de nuestras sociedades. O es que acaso podemos imaginar nuestra vida sin computadoras, teléfono celular o internet?