jueves, 29 de octubre de 2009

WEB 1, WEB 2, WEB 3

WEB1: Aquí encontramos la información de manera estática. Nos permitía leer información pero no cambiar o aportar contenidos, esto solo lo hacían los conocedores de programación. Su discurso es lineal (Emisor-Receptor).
Eran sitios direccionales y no colaborativos. Su tecnología se asocia al HTML, gifs.

WEB2: Fue un cambio con el que los internautas comenzaban a interactuar en la red y comienzan a ser mas participes de la web. Es decir que aprovecha la inteligencia colectiva. La información está en permanente cambio, es decentralizada. Tiene servicios como redes sociales, wikis, folksonomias.


WEB3: O Web Semántica es un proceso evolutivo en construcción permanente. Algunos opinan que será una revolución si se logra una combinación efectiva entre la inclusión de contenido semántico en las páginas web y el uso de inteligencia artificial que saque partido de ella. También podemos decir que busca un aumento de interactividad y de la mobilidad.


martes, 9 de junio de 2009

NOTICIA DE EXPANDIT

LA NUEVA OLA DEL TRABAJO COLABORATIVO EN INTERNET

Días atrás la revista EXPANDIT público una noticia donde difundía “Wave” la nueva plataforma de comunicación lanzada por Google, que nos permitirá trabajar en forma simultanea con otros usuarios ya sea en documentos de textos, gráficos, etc., en tiempo real. El sistema aún se encuentra en etapa de desarrollo y se estima que estará disponible hacia fin de año, de momento solo estará disponible para expertos en programación.


La intención de Google es utilizar el poder de las redes, los navegadores e Internet como plataforma para que las personas puedan comunicarse y colaborar más eficientemente.

Es realmente increíble que mientras un usuario esté escribiendo un mensaje, el otro vea como escribe el texto en tiempo real (por dar uno de los ejemplos). La tecnología no deja de sorprendernos, no sólo nos facilita cada vez más la comunicación sino que nos brinda herramientas de colaboración interactiva.

lunes, 8 de junio de 2009

PROYECTO DE LEY DE SERVICIOS DE COMUNICACIÓN AUDIOVISUAL

LEY DE SERVICIOS DE COMUNICACIÓN AUDIOVISUAL
El proyecto de ley llamado Ley de Servicios de Comunicación Audiovisual, trata de dar cambios a la Ley 22.285 aprobada durante la dictadura en manos del ex dictador Jorge Videla, el ex ministro de Economía José Martínez de Hoz y el ex ministro del Interior Albano Harguindeguy.
En este cuadro vemos detallado porque es tan importante la Ley de Servicios de Comunicación Audiovisual….


El Proyecto de ley fue basado en 21 puntos impulsados en 2004 por la Coalición.
Dirección de Internet donde encontrar más información: http://www.argentina.ar/hablemostodos/
Esta ley exige el compromiso de todos, debemos considerar el acceso a la información y la libertad de expresión como derechos humanos y universales.
Basta de hacer de la comunicación un negocio comercial, donde sólo se benefician las grandes empresas, sin pensar en el bien común o la justicia social.
Esta ley es necesaria para que reafirmemos nuestra democracia, tengamos una sociedad que aporte sus ideas y que sean escuchadas de una vez por todas las voces del pueblo.

miércoles, 3 de junio de 2009

Software Libre - Richard Stallman

Software Libre
¿De quien debe recibir ordenes el ordenador? Muchos piensan que debería obedecer a uno y muchos otros piensan que no. Hay un plan llamado “informática de confianza” en donde las grandes corporaciones de los medios de comunicación al lado de las compañías como Microsoft e Intel, plantean hacer que su ordenador los obedezca a ellos en lugar de a uno. Lo que llaman Software propietario, donde cada operación puede requerir de una autorización explicita. Los programas utilizan un dispositivo para controlar que otros programas se los puede transferir. Si no permites que el ordenador obtenga nuevas reglas periódicamente de Internet, algunas capacidades dejaran de funcionar automáticamente, los cuales no darán la opción de elegir. La informática traicionera, como la llaman, pone en peligro la existencia de sistemas operativos y aplicaciones libres, en la medida en que ya no se podrá ejecutar en absoluto Los programadores deberían animar a otros a compartir, redistribuir y mejorar el software que escribimos, ósea animar a escribir software libre.
Los propietarios se justifican en contra del software libre argumentando q ponen sudor, corazón, alma en los programas y que quieren ser ricos.
Hay tres niveles de perjuicio; el primero impide el uso del programa, una copia del mismo tiene un coste nulo. Si un programa de gran utilidad es propietario, mayor será la cantidad de gente que no lo use, implica traicionar al vecino, se trata de un daño psico-social asociado con el daño material provocado por la desincentivación de usar el programa. Los programadores también sufren el daño psico-social al saber que a muchos usuarios se les impedirá aprovechar su trabajo.
El segundo nivel de perjuicio es la imposibilidad de adaptar los programas. El programa que se ejecuta consiste en una serie de números, “código fuente” cuyo significado permanece oscuro y con el cual los programadores trabajan normalmente.
El tercer nivel de perjuicio consiste en que el desarrollo del software normalmente era el resultado de un proceso evolutivo, en el cual una persona escogía un programa existente y reescribía algunas partes más para añadir una función nueva, y así sucesivamente. Evolución que se obstaculiza con la existencia de propietarios, al desarrollar un programa se debe comenzar de cero.
En la década del 70 Richard Stallman, fue parte de la comunidad de programadores que compartían software, pero lamentablemente esa comunidad fue destruida. Por este motivo decidió buscar otras alternativas y un desarrollador de sistemas operativos era lo que hacia falta. Decidió desarrollar un sistema operativo libre, un sistema compatible con Unix por una serie de razones. En primer lugar, Unix era un sistema portable, si seguía su diseño, tenía bastantes posibilidades de hacer un sistema que también se pudiera migrar y funcionar en otros sistemas. Busco un acrónimo recurrente para Algo No Es Unix (Something Is Not Unix), llamándolo GNU.
En enero de 1984, dejó su trabajo en MIT para empezar a escribir elementos de GNU Emac, que era su segunda implementación de Emacs y para principios de 1985 ya estaba funcionando. Cuando comenzó a funcionar lo suficientemente bien otra gente quiso usarlo y empezó un negocio de software libre.

Un programa es software libre si tiene las siguientes libertades:
v La Libertad Cero es la libertad de ejecutar el programa con cualquier propósito, de la forma que quieras.
v La Libertad Uno es la libertad de ayudarte a ti mismo cambiando el programa para que se ajuste a tus necesidades.
v La Libertad Dos es la libertad de ayudar al prójimo distribuyendo copias del programa.
v Y la Liberad Tres es la libertad de ayudar a construir tu comunidad publicando una versión mejorada de modo que otros puedan beneficiarse con tu trabajo.
Si tienes estas libertades el programa es software libre, libre haciendo referencia a libertad, no al precio, el precio puede ser alto, bajo o cero.
La gente empezó a observar, hacia 1990, que el software era en realidad mejor, ya que tenía más capacidad, era más fiable que las alternativas propietarias
Hoy en día, se entiende que nadie programe sin recibir una excelente remuneración a cambio, no trabajan en ese campo por el placer de hacerlo. El desarrollo de software podría estar financiado por subvenciones gubernamentales, que ahora respaldan al desarrollo del software propietario, o por instituciones como la Free Software Foundation, donde sus fondos provienen de los usuarios que compran disquetes o cintas por correo y por donaciones de fabricantes de ordenadores. En octubre de 1985 se fundó la Free Software Foundation, organización libre de impuestos que recogía fondos para promover la libertad de compartir y de intercambiar el software.
Hacia 1991 sólo faltaba un elemento principal, que era el Kernel. En este mismo año Linus Torvals desarrolló un Kernel libre, llamado Linux. Consiguió que funcionara mucho más rápido. Y así otra gente hizo el trabajo de combinar Linux con el resto del sistema GNU para hacer un sistema operativo libre completo GNU/Linux. El software libre es ventajoso para cualquier empresa que use software, porque significa que están en condiciones de adquirir el control.
Otra ventaja del software libre para empresas es la seguridad y la privacidad.
Junto al Software libre hay una extensa comunidad que revisa las cosas, si hay un fallo accidental, podrían encontrarlo y arreglarlo.
El usuario es el rey en el software libre.
El software propietario es una forma de combate entre los ciudadanos de nuestra sociedad, ya que preservan información que podría ayudar al avance de todos. El sistema de copyright sobre el software de EEUU ejerce un control central sobre la distribución de un programa y protege los equipos de copia con sistemas automatizados de protección anticopia, de forma que pueda evitarse la copia ilegal. La Constitución dice que el propósito del copyright es promover el progreso de la ciencia y de las artes útiles.
El copyright apareció con el uso de la imprenta. Se propuso que a los autores se les debería otorgar un copyright, un monopolio sobre la copia de sus libros.
Con las redes informáticas y la tecnología de la información digital podemos leer y usar la información, copiarla y hacer copias.
Debemos disminuir el poder del copyright para darle al público cierto espacio de libertad donde pueda hacer uso de los beneficios de la tecnología digital, sin ser el mismo abolido, porque es ventajoso a cierto nivel. Podría ser una buena política de compromiso tener un copyright que proteja la copia textual comercial pero permitir a todos el derecho a la copia textual no comercial.
Copyleft: Legalmente funciona sobre la base del copyright, usa su legislación pero su objetivo es diferente. Puedes cambiar el programa distribuir una versión modificada, pero cuando lo haces, la gente que lo obtiene de ti debe recibir las mismas libertades que tu recibiste de nosotros. La licencia específica que encarna la idea de copyleft es la Licencia Pública General GNU.
Están los programas que tiene copyleft para que la licencia defienda la libertad para todos los usuarios. Y están los programas sin copyleft para los que están permitidas las versiones no libres.
Un método que podría ayudar es un pago voluntario cada vez que nos guste algún libro o álbum de música para poder promover un flujo de ganancia a los autores, los cuales se convertirían en aliados nuestros.
IBM está invirtiendo un billón de dólares en Linux, parte de ese dinero esta pagando a gente para que desarrolle software libre. Otras divisiones están pagando a la gente para que escriba software propietario, o para instalar software propietario sobre GNU/Linux y esa no es una contribución a nuestra comunidad.
El GPL está diseñado para impedir que gente no se lleve lo que uno hace sin dar nada a cambio o lucren con lo que uno hizo. Dice:”Sí, sois bienvenidos de uniros a la comunidad y usar este código”. Pero si publicáis una versión modificada debe ser en nuestra comunidad.
Siempre que las tecnologías radicales potencialmente transformadoras, aparecen en la sociedad, hay una lucha sobre su control.
La información no libre, restringida, es un intento de dividir a la gente y mantenerla desamparada. “trabajemos juntos para producir la información que queremos usar, de modo que no este en manos de personas poderosas que decidan sobre lo que podemos hacer. El copyright cubre el modo que están escritos los hechos, se puede escribir un libro de texto y libre si deseamos.


CONCLUSION:
Creemos que el software debe ser libre, ya que siempre se va a necesitar de programadores, no estaríamos perjudicándolos en nada, y entre todos cooperaríamos para una evolución general en la informática. Todos deberíamos tener nuestras propias computadoras con software libre y poder modificarlo cada vez que nos surja una necesidad, este cambio ofrecerlo para poder ayudar a otros.

viernes, 1 de agosto de 2008

Nociones básicas alrededor de la Web 2.0


El origen del meme.
El origen Web 2.0 debe su origen a una tormenta de ideas entre los equipos de O´Reilly Media y Media Live Internacional a mediados de 2004.
Es evidente que la World Wide Wed actual no es igual a la Web que existía en 2000 y que aplicaciones de diferentes calado y capacidad de relación usuario-herramienta conviven entre sí para darle mayor riqueza a la Web.
Hoy existe un entorno virtual de convivencia entre aplicaciones estándares con escasa interactividad y otras de escritura colaborativa. Pero la Web en su conjunto empieza a dibujar un nuevo escenario de contenidos y meta-información en plena transformación hacia los principios de la Web 2.0.

Siete principios constitutivos de las aplicaciones Web 2.0.

1. La World Web como plataforma.

Salvo Linux y otras escasas alternativas, hasta hoy la industria del software computacional se enfrentaba casi con exclusividad a un modelo de negocios de paquetes con derechos de propietarios y venta bajo el régimen de obsolencia planificada. Para que los diseñadores, empresas o instituciones puedan utilizar dichas aplicaciones en forma legal, deben comprar los derechos de uso y actualizar el software cada cierto tiempo, con los consiguientes costos adicionales por la licencia.

Las nuevas compañias ofrecen software gratuito, utilizando a la Web como plataforma. Así las herramientas y sus contenidos existen en la propia Web y no en la computadora del usuario. El concepto de Webtop opuesto al de desktop es apropiado para explicar este fenómeno comercial.

Las herramientas Web 2.0 utilizan su servidor para almacenar información, y el usuario conectado a la red siempre tiene acceso a ella. La inspiración radica en una idea clave: el producto mejora con el uso y con el crecimiento de una comunidad que no cesa de subir contenidos. Un ejemplo de la Web como plataforma es You Tube fundada en febrero de 2005, comprada por Google en noviembre de 2006 y cuyas cifras de consumo son sorprendentes.

2. Aprovechar la inteligencia colectiva.

Es evidente que la dinámica de la inteligencia colectiva está creciendo de la mano de esta nueva generación de aplicaciones Web, con software en línea diseñado a partir de una interfaz de fácil uso, escalable, de valor añadido en contenidos y acceso gratuito.

En el entorno Web 2.0 los usuarios actúan de la manera que deseen: en forma tradicional y pasiva, navegando a través de los contenidos; o en forma activa, creando y aportando sus contenidos. Wikipedia es uno de los productos más representavivos de los valores de la Web 2.0; un medio ambiente igualitario con sentido de neutralidad entre pares. Al mismo tiempo Wikipedia puede utilizarse como icono referente para señalar los problemas de dicha arquitectura de la partición, donde la estructura sitúa en la misma nivel a escritores amateur y profesionales. Lo que sucede es que no hay filtros en la entrada de contenidos, sino en la salida.La aplicación permite al usuario publicar y luego la comunidad determina la relevancia del contenido.

Sunstein(2006) señala que los campos del conocimiento científico son como grandes wikis, editables todo el tiempo a modo de revisión entre pares, en las cuales las nuevas entradas representan trabajos que hacen crecer la inteligencia colectiva en forma eficiente.

3. La gestión de la base de datos como competencia básica

Este principio tiene una palabra clave: infoware: software más datos. Lo valioso de la Web 2.0 son los datos, ya que en muchos casos el software es un recurso abierto o de fácil implementación.

El interés inicial de estos proyectos donde la gestión de la base de datos es la competencia básica es obtener una masa crítica de usuarios que produce un volumen de datos de gran valor. Poseer esta información clave y usuarios co-desarrolladores otorga valor comercial al producto.

4. Fin del ciclo de las actualizaciones de versiones del Software.

Se vive una transformación del mercado en la que los actores deben reaccionar. Los paquetes de software tradicionales siguen siendo productos costosos bajo una agresiva política de obsolescencia que en poco beneficia a sus consumidores.

Nuevas aplicaciones Web 2.0 se desarrollan con el objetivo de sustituir a estos productos y ganar clientes dispuestos de producir y subir los datos a nuevas plataformas. Utilizando el método de ensayo y error para aprender del consumo de los usuarios. Así se mejora la herramienta en forma constante, sin costes adicionales para el consumidor y acelerando el proceso de mejoras a la aplicación.

5. Modelo de programación ligera. Búsqueda de la simplicidad.

Se pretenden que las aplicaciones crezcan sin complicaciones para el desarrollador y que el usuario pueda ver los contenidos en la plataforma que desee a través de sindicación y no cuando el desarrollador/ proveedor disponga en su plataforma propietaria.

Los modelos de programación ligera ponen énfasis en la reducción de la complejidad, donde menos es más, evitando las excesivas especificaciones y funciones del software empaquetado.

6. El software no limitado a un solo dispositivo.

La utilización de los productos de la Web 2.0 no se limita a las computadoras. Los teléfonos móviles de la tercera generación (3G) empezaron a ocupar espacios hasta ahora sólo reservados a aquellas. Aunque los primeros productos fueron pensados en forma similar a sus pares cableados, hoy se han vuelto mobile devices, teléfonos más plataformas para el entretenimiento, la gestión de la información, el consumo de los media, la producción de contenidos multimediales y el fortalecimiento de las redes sociales.

Por otra parte la sindicación evita tener que navegar por los sitios originales, facilitando la lectura de los contenidos previamente seleccionados por el usuario.

7. Experiencias enriquecedoras del usuario.

  • En 1996 apareció Flash Macromedia para darle al usuario una experiencia más generosa a nivel gráfico.
  • Dreamwearver y Flash ofrecen la posibilidad de crear un diseño complejo de contenidos dinámicos mediante HTML, estilos CSS y programación.
  • Pero también se quedan atrás de las aplicaciones diseñadas en Ajax, Ruby on Rails o Bit Torrent para los productos Web 2.0. Interfaces con la capacidad de acceso entodo lugar y momento a los servicios Web, con la usabilidad, familiaridad y sencillez de las interfaces de los sistemas operativos.
  • Second Life, se trata de un mundo/ videojuego virtual con la estructura escalable de avatares (personajes) en el entorno de ciudades y mobiliario urbano creados por el usuario. Es una enriquecedora experiencia de usuario creada por Linden Lab.
  • Otra experiencia de usuario de mayor calado y popularidad son los blogs.

Una Ley de Moore semántica.

"En los últimos 25 años hemos sufrido una aceleración tecnológica que se manifiesta en la aparición constante enel mercado de nuevos equipos cada vez más potentes.(...).Existe una Ley de Moore semántica que trabaja del mismo modo que la aceleración tecnológica; promoviendo una obsolescencia terminológica planificada, abandonando conceptos de poco uso y rediseñando nuevas palabras constantemente, pensando más en el marketing viral que en su necesidad lengüistica. Con esta lógica, algunos términos se convierten en potentes memes y se reproducen ganando visibilidad, como es el caso del concepto Web 2.0.

Hacia un modelo de negocio genuino.

Lo que se percibe en forma más transparente es que ya no sólo se trata de ganar dinero con la venta de paquetes de software, sino con la fortaleza de la base de datos, la venta de espacios publicitarios en comunidades en líneas de bran volumen de usuarios, y la venta de servicios de alto valor añadido para clientes diferenciados. Existe una evolución de usos tecnológicos que no hace más que reflejar la esencia de la World Wide Web a principios de la década del `90.

Se debe pensar a las aplicaciones de la Web 2.0. como una estructura de tres vértices; tecnología, comunidad, negocio. Los millenials son quienes dominan el consumo de la Web 2.0. desde su profunda alfabetización digital, no obstante constituyen audiencias volátiles, sin respeto a los derechos de copyright, ni permeabilidad para recibir publicidad intrusa, ni lealtades más allá de su propia comunidad. Con ese perfil de audiencias, y en un entorno publicitario conservador, el modelo de negocio está aún por aparecer, aunque la lógica de la larga cola (the Long Tail) permite confiar en desarrollos exitosos, más allá de Google.

Cinco lecturas imprescindibles.

O´Reilly, Tim, (09/30/2005). What is Web 2.o. Design Potterns and Business Models for the Next Generation of Software. Disponible en http://www.orellynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-2.0.html

Gillmor, Dan.2004. We the Media: Grassroots Journalism by the People, for the People. O´Reilly Media. California. Disponible en http://www.oreilly.com/catalog/wemedia/book/index.csp

Levy, Steven. Octubre 2005. The Trend Spotter. Wired. Disponible en http://www.wired.com/wired/archive/13.10/oreilly.html

Garret, Jesse James. Febrero 2005. Ajax: A New Approach to Web Applications. Disponible en http://www.adaptivepath.com/publications/essays/archives/000385.php

Anderson, Paul. 2007. What is Web 2.o? Ideas, technologies and implications for education. Disponible en http://www.jisc.ac.uk/whatwedo/services_techwatch/tech-watch_ic_reports2005_published.aspx

Notas

Un meme es una idea contagiosa que se propaga como un virus replicándose a través de las redes, los mass media y la comunicación interpersonal.

El concepto de Ley de Moore semántica lo creó Carlos Solari y apareció por primera vez en http://digitalistas.blogspot.com/2006/05/el-mito-de-la-web-20-primera-parte-o.html

La Ley de Moore, es una ley empírica atribuída al investigador Gordon Moore-uno de los creadores de Intel-que señala que cada 18 meses (dos años era su predicción original en 1965 cuando aún no existía la computadora personal ni los microprocesadores) se duplica el número de procesadores de un circuito integrado en una computadora. Consultar http://en.wikipedia.org/wiki/Moore´s_law

Darwinismo digital es un concepto elaborado por Evan Schwartz en su libro Digital Darwinim. 7 breakthrough business strategies for surviving in the cutthroat web economy (1999. Broadway Book, New York). Describe un entorno en el que sólo sobreviven los más aptos en función de la adaptación de las especies al medio, ya que nacen muchos más individuos (o productos en este caso) que los que la especie y el entorno pueden solventar, como planteó Darwin en su Teoría de la Evolución en 1859.

miércoles, 30 de julio de 2008

Todo Sobre Voz IP

¿Qués es VoIP? ¿Qué es la Telefonía IP?

VoIP proviene del inglés Voice Over Internet Protocol, que significa "voz sobre un protocolo de Internet". Es un método por el cual tomando señales de audio analógicas del tipo de las que se escuchan cuando uno habla por teléfono se las transforman en datos digitales que pueden ser transmitidos a través de Internet hacia una dirección IP determinada.

¿Por qué usar VoIP?

El VoIP permite la unión de dos mundos históricamente separados, el de la transmisión de voz y el de la transmisión de datos. Entonces, VoIP no es un servicio es una tecnología, que puede convertir una conexión standard a Internet en una plataforma para realizar llamadas gratuitas por Internet. Salteando a las compañias de telefonía, como así también a sus tarifas.

¿Cómo funciona la telefonía VoIP?

Supongamos que dos personas que se quieren comunicar tienen servicios a través de un proveedor VoIP y los dos tienen teléfonos analógicos conectados a través de un adaptador digital-analógico llamado ATA.

  • Se levanta el teléfono lo que envía una señal al conversor analógico-digital llamado ATA.
  • El ATA recibe la señal y envía un tono de llamado, esto deja saber que ya se tiene conexión a Internet.
  • Se marca el número de la persona que se desea llamar, los números son convertidos a digital por ATA y guardados temporalmente.
  • Los datos del número telefónico son enviados a tu proveedor de VoIP. Las computadoras de tu VoIP revisan este número para asegurarse que está en un formato válido.
  • El proveedor determina a quien pertenece este número y lo transforma en una dirección IP.
  • El proveedor conecta los dos dispositivos que intervienen en la llamada. En la otra punta una señal enviada al ATA de la persona que recibe la llamada para que este haga sonar el teléfono de la otra persona.
  • Una vez que la otra persona levanta el teléfono, una comunicación es establecida entre tu computadora y la computadora de la otra persona. Esto significa que cada sistema esta esperando recibir paquetes del otro sistema.Cada sistema debe estar funcionando en el mismo protocolo para poder comunicarse.
  • Cuando se termina la llamada, se cuelga el teléfono. En este momento el circuito es cerrado.
  • El ATA envía una señal al proveedor de Telefonía IP informando que la llamada ha sido concluida.

Tipos de Comunicación en Telefonía IP

ATA (analog telephone adaptor) permite conectar teléfonos comunes a su ordenador o a su red para utilizarlos con VoIP. Toma la señal de la línea de teléfono tradicional y la convierte en datos digitales para ser transmitidos en Internet.

Teléfonos IP (hardphones):En lugar de tener una ficha RJ-11, vienen con una ficha RJ-45 para conectar directamente al router y tiene todo el hardware y software necesario para manejar correctamente las llamadas VoIP.



Computadora a Computadora: Es la manera más facil de utilizar VoIP, todo lo que necesita es un micrófono, parlantes y una targeta de sonido, además de una conexión a internet preferentemente banda ancha.


Ventajas o Beneficios

  • Un único numero de teléfono :Casi como un celular, si tenemos una conexión a internet en nuestro departamento y en la casa de fin de semana, el número telefónico será el mismo.
  • Ahorro en llamadas de larga distancia
  • Llamadas a teléfonos fijos o celulares: Otra gran ventaja de la telefonía IP es que se puede llamar a un teléfono fijo o móvil en cualquier lugar del mundo para transmitir fax, voz, vídeo, correo electrónico por teléfono, mensajería y comercio electrónico. Es decir, la gran variedad de servicios brindados por un solo operador es una de las grandes ventajas que ven los usuarios hogareños y corporativos.
  • Reducción del abono telefónico
  • Ventajas para las empresas: Es evidente que el hecho de tener una red en vez de dos, es beneficioso para cualquier organización. VoIP proporcionaría a las sucursales de una misma empresa, comunicaciones gratuitas entre ellas, con el ahorro de costes que esto supondría. No solo entre sus sucursales, sino entre proveedores, intermediarios y vendedores finales, las comunicaciones se podrían realizar de forma completamente gratuita.
  • Videoconferencia integrada o Multiconferencia: Con los datos de ancho de banda requeridos actualmente (de 8 a 16kbps por llamada), se podrían establecer de 15 a 30 comunicaciones simultaneas con una línea ADSL estándar, que podría satisfacer sobradamente los requerimientos de una mediana empresa.

Desventajas o Inconvenientes:

  • Calidad de la comunicación: Algunas de sus desventajas son la calidad de la comunicación (ecos, interferencias, interrupciones, sonidos de fondo, distorsiones de sonido, etc.), que puede variar según la conexión a Internet y la velocidad de conexión del Proveedor de servicios de Internet.
  • Conexión a Internet: Sólo lo pueden usar aquellas personas que posean una conexión con Internet, tengan computadora con módem y una línea telefónica; algunos servicios no ofrecen la posibilidad de que el computador reciba una llamada, ni tampoco funcionan a través de un servidor proxy.
  • Perdida de información: Este tipo de redes transportan la información dividida en paquetes, por lo que una conexión suele consistir en la transmisión de más de un paquete. Estos paquetes pueden perderse, y además no hay una garantía sobre el tiempo que tardarán en llegar de un extremo al otro de la comunicación.

¿Qué protocolos utiliza?

Protocolo H.323

El protocolo mas usado es el H.323, un standard creado por la International Telecomunication Union (ITU) (link) H323 es un protocolo muy complejo que fue originalmente pensado para videoconferencias. Este provee especificaciones para conferencias interactivas en tiempo real, para compartir data y audio como aplicaciones VoIP. Actualmente H323 incorpora muchos protocolos individuales que fueron desarrollados para aplicaciones específicas.

El protocolo SIP

Una alternativa al H.323 surgió con el desarrollo del Session Initiation Protocol (SIP). SIP es un protocolo mucho mas lineal, desarrollado específicamente para aplicaciones de Voip. Más chicas y más eficientes que H.323. SIP toma ventaja de los protocolos existentes para manejar ciertas partes del proceso.

Deshumanización y Tecnología



Deshumanización es ese tipo de palabras que significan algo diferente dependiendo de quien la use. Así que acudamos a las fuentes: según el Merriam Webster (que lo tengo bien a mano aquí en mi Galeon) significa "privación de cualidades humanas, personalidad o espíritu". Según el DRAE, como siempre sin meterse en muchos líos, deshumanizar es privar de caracteres humanos, lo cual nos deja con las ganas de saber qué es ser humano. Más o menos, sin embargo, tenemos una cierta idea de lo que es, así que la siguiente pregunta es: ¿Cómo puede la tecnología deshumanizar? (o sea, privarnos de las cualidades humanas). Es difícil ver como puede suceder esto, puesto que la tecnología (igual que el arte) es una creación, es una creación humana. Se puede deshumanizar a la tecnología, quitándola de todo tipo de cualidad humana, pero la tecnología no puede deshumanizar, ¿no? Sin embargo, da la impresión de que es así. A través del uso de artefactos, como coches, teléfonos móviles y ordenadores (y tijeras y aspiradoras y pinzas para la ropa), parece que somos menos humanos, parece que nuestra personalidad se diluye y se nos encoge el espíritu (a la vez que engordamos). Las corporaciones deshumanizan, la globalización deshumaniza, y el propio arte deshumaniza (o está deshumanizado, como ya digo Ortega y Gasset en el año 25). Pero no es la tecnología la que deshumaniza, sino las propias personas a través de la tecnología. Uno se siente muy poco humano cuando se pone con una línea de esas de apoyo al cliente, y tiene que ir pulsando numeritos, o diciendo cosas y recibiendo respuestas automatizadas, pero ha tenido que ser una persona la que tome la decisión de crear ese sistema, otra persona la que programa, y otra persona la que le de la papeleta de despido a la telefonista que lo hacía antes. Ante decisiones arbitrarias tomadas por una gran empresa o un gobierno, uno se siente desprovisto de personalidad y se convierte en un número, pero es una persona la que te cuenta "Lo siento, el ordenador nos dice que no podemos concederle un crédito". Como siempre, todo esto tiene solución; a las líneas de soporte automatizadas se les puede pedir que te pongan con un operador "humano", humanizándolas; uno puede elegir gobiernos (al menos, en muchos países todavía se puede) y elegir qué empresas le proporcionan servicios; uno mismo, en su vida diaria, puede optar por la opción más humana (por ejemplo, comprar en una tienda de barrio en vez de en una gran superficie, o hablar en persona en vez de por teléfono o a través del correo electrónico). O puede optar también por hacer como los Amish, que rechazan toda tecnología que no haya sido previamente revisada y aprobada por el consejo de ancianos. O usar toda la tecnología que tenga uno a su alcance, pero no perder de vista que la tecnología debe acercarnos a otros humanos, no alejarnos de ellos.