Páginas

31 agosto 2007

Aprendamos Unix!:Capitulo II "Instalación del Unix (SCO Openserver)

A continuación, explicaremos cómo se instala el Unix, en este caso la versión SCO Openserver que es la que tenemos a mano.

Para mayor información sobre la documentación pueden visitar el siguiente enlace:
http://osr507doc.sco.com/en/GetStart/CONTENTS.html

La instalación del SCO Openserver se compone de cinco etapas:
1- Booteo inicial y detección del hardware.
2- El IQM (Interactivd Query Manager) recolectará la información de configuración
del sistema que proporcione el usuario.
Esto incluye:
* Licenciamiento del Sistema Operativo e instalación de los dispositivos.
* Selección de software y setup de disco.
* Información final sobre la configuración.
3- Inicialización y preparación del disco duro.
4- Creación del filesystem.
5- Instalación del software.

Las únicas fases que requieren la interacción del usuario son la 1 y la 2, las últimas dos fases - en donde ya el sistema está instalado - son las que se toman más tiempo en realizarse (unos 10 o 20 minutos en equipos recientes y de 1 a 1.5 horas en hardware más antiguo)

PROCEDIMIENTO DE INSTALACION Y ACTUALIZACION:

Antes de empezar este proceso se recomienda recopilar la siguiente información en un formulario:
1- Si se instalarán o no BTLDs (Boot-Time Loadable Drivers) que son drivers de booteo que no están incluidos en el kernel y por lo tanto se debe decidir si serán incluídos o no, si van incluirse deben ser detallados los paquetes.
Para ampliar esta parte favor de ver este enlace:
http://osr507doc.sco.com/en/GetStart/islD.instchk.html

2- Respaldo de todos los datos del sistema:
Deben realizarse antes de empezar cualquier instalación o actualización, esto debido a que algunas opciones de la instalación sobreescriben todos los datos del disco, incluyendo datos del usuario y particiones.

3- Verificar que la partición de UNIX esté activa:
La instalación del SCO Openserver se copiará en la partición activa, si el disco contiene más de una, se debe confirmar cuál es la activa.

4- Creación de un disquete de booteo:
Si el computador usado tiene unidad de CDROM booteable, se puede utilizar el CD del SCO para realizar la instalación, de lo contrario se necesitaría un disquette booteable de UNIX.


PASOS PARA INSTALAR O ACTUALIZAR EL SISTEMA OPERATIVO SCO OPENSERVER:

1- Insertar el CD o disquette de booteo, se recomienda que el computador esté apagado o que se realice cuando aparezca el mensaje "Press any key to reboot".
Debe confirmarse cual es la unidad principal del computador.

2- Encender el computador (o presionar cualquier tecla para continuar después del haltsys).
Cuando aparezca en el prompt:
Boot:
presione la tecla ENTER.
El sistema revisará que no existan conflictos de hardware. Cada paso genera una letra desde la D hasta la M.
3- Presionar ENTER para que se inicie la fase de instalación IQM.

Se deben seguir todas las instrucciones de cada pantalla y completar la información de cada campo.
4- Licenciamiento:
* Revise los derechos reservados y seleccionar Continuar (Continue)
* Lea la información sobre la licencia y seleccione Aceptar (Accept) para continuar.
* Especifique información sobre la unidad de CD-ROM, asegúrese que el CD esté dentro y presione ENTER. Si empezó la instalación con un disquette booteable, no lo extraiga de la disquetera.
* Si la unidad de CD-ROM es IDE:
- Seleccione Primario (Primary) si la unidad CD-ROM está conectada al controlador primario IDE con dos o más controladores IDE. Seleccione Secundario (Secundary) si está conectado al controlador secundario IDE con dos controladores IDE.
- Seleccione Maestro (Master) si la unidad CD-ROM está configurada como tal, de lo contrario seleccione Esclavo (Slave) si está configurado como esclavo.

Un disco duro y una unidad CD-ROM instalados en el mismo controlador IDE generalmente se configuran como Maestro y Esclavo respectivamente. Si no hay un disco duro, el CD-ROM generalmente se configurará como unidad Maestra.

NOTAS:
- Si se seleccionara una dirección incorrecta de CD-ROM y otra unidad está instalada no se puede modificar, debe presionar F2 y suspender la instalación, luego reiniciar desde el principio.
- Las unidades USB que se vayan a utilizar durante la instalación deben conectarse ANTES de encender el computador. Después de iniciarse ésta no se debe conectar ni remover ninguno de estos dispositivos (incluyendo hubs) hasta que finalice.
El ID por defecto de los dispositivos USB es el 0.

- Debe especificar el tipo de teclado.
- Introducir la licencia del SCO Openserver y el código.
- La siguiente pantalla detectará si es sistema va a Actualizarse (Upgrade)
o no.
Si el campo Tipo de instalación (Installation Type)dice Fresh y no puede seleccionar otra opción, significa que el sistema no se podrá actualizar. Solamente se podrá hacer la instalación nueva.

- SEGUNDO PASO:
Información del sistema:
En la pantalla siguiente necesitará:
* Introducir el nombre del sistema y del dominio
* Seleccionar el perfil de seguridad, escoja Traditional a menos que tenga otra preferencia.
* Seleccione la zona horaria.
* Especifique el lenguaje por defecto. Seleccione la letra C a menos que tenga otra preferencia.
En la pantalla siguiente, seleccione la configuración Standard Enterprise System o Lightweight Character Terminal (no podrá utilizar redes o Gráficos) también se pueden seleccionar bases de datos de mayor tamaño.
- TERCER PASO:
Instalación de disco y selección de software:
Seleccione el método de instalación que usará para su disco duro y seleccione cualquier programa adicional que desee instalar.
* La configuración por defecto del disco incluye el chequeo de sectores dañados.
* Las opciones de partición incluyen:
1- Preservación de la partición por defecto.
2- Creación de una partición que solamente contenga al UNIX.
3- Comandos interactivos fdisk/divvy: Ejecute las utilidades fdisk y divvy para especificar particiones y divisiones.

La selección de software presente varias opciones:
* Servicios del Sistema operativo (principales servicios y utilidades que este incluye)
* Entorno Gráfico: (Servidor X, clientes X y escritorio)
* Conectividad: drivers de redes, TCP,NFS,IPX/SPX y administrador de LAN.
* Servicios de Internet: navegadores Mozilla y Netscape Communicator, el Internet Manager, plugins de Java.
* Documentación: Manuales y documentación en línea (en formato HTML)

- PASO CUATRO:
- Información final de la configuración:
En la pantalla siguiente realice las siguientes selecciones:
Tarjeta de Red (Network Card) y dirección de red (Network Address)
Si cuenta con un adaptador de red tipo PCI resultará más fácil seleccionar la opción AUTODETECTION. De lo contrario, debe seleccionar otro adaptador de la lista.

La dirección de red puede incluirse hasta después de terminada la instalación, de lo contrario, introduzca la dirección IP, la mascara de sudred y la dirección de broadcast. En este punto también puede configurase el TCP/IP y el IPX/SPX.
- Video y Gráficos:
Por defecto es el VESA SGVA, seleccione el adaptador de video, el modo y la resolución del adaptador, tambiéon el tipo de monitor y el tamaño.
- Mouse:
Seleccione el mouse apropiado de la lista. Puede configurar uno tipo Bus, PS/2, Serial (o COM1) o USB.
- Sistema de Email:
MMDF es el configurado por defecto. Seleccione Sendmail si desea usa funciones avanzadas de los servicios de Internet como por ejemplo dominios virtuales.
a. Asignar el password del root (superusuario o administrador)
- Si seleccionó la opción de configuración de disco Interactiva fdisk/divvy, la instalación le pedirá inicializar el disco duro. Siga las instrucciones sobre partición de disco usando el comando fdisk y sobre la división de particiones de disco usando el divvy para completar este paso.

PRECAUCION: No ocupe todo el espacio disponible en el directorio /u, de hacerlo dejaría poco espaci para el sistema de archivos del root, si éste tiene poco espacio, la instalación fallará.
Si encuentra errores en este punto, reinicie el sistema y reinicie la instalación desde el principio, no intente devolverse a puntos previos de la misma.

5- Si seleccionó el comando badtrack éste se ejecutará, si encuentra errores durante este proceso reinicie el sistema y la instalación desde el principio.

6- La carga del programa empezará después de la instalación del disco o la ejecución del badtracking. Este es el proceso más largo pero se realiza automáticamente.
A medida que se va ejecutando aparecerán mensajes como los siguientes:
Installing: SCO UNIX system V Operating System (ver 5.0.7)
Installing Phase: Copying files from the media
Installation Status: Copying file

Estos mensajes se almacenarán en el archivo custom.log ubicado en
/var/opt/K/SCO/SoftMgr/*/custom.log

Después que se carga el software el kernel (/stand/unis)se reconstruirá, esto se tomará algunos minutos. El directorio /stand contiene otros kernels booteables, estos se usarán para aquellos casos en los que el UNIX de la instalación no bootee, en este caso usará el unix.safe que es idéntico al usado por defecto, pero sin los drivers de terceros presentes en la configuración, el unix.install es el kernel que se usó durante la instalación y contiene casi todos los drivers.
7- El sistema se apagará, entonces debe presionar Press any key to reboot, debe remover el disco booteable y presionar cualquier tecla.
8- En el Boot: presionar ENTER
9- Loggearse con el root en esta parte:
INT: SINGLE USER MODE
Esto si va a configurar algunos elementos como mouse serial, Redes, servicios de internet, etc.
10- De lo contrario suba el sistema en modo multiusuario combinando las teclas
CTRL + la letra D
11- Si la fecha y hora es la correcta pulse ENTER, de lo contrario modifiquela.
El sistema mostrara varios mensajes durante su subida hasta que se detiene en
login:
La cuenta creada por default es la de root que debe ser usada para tareas administrativas tales como:
* Creación de usuarios.
* Agregar impresoras locales y discos duros.
* Configuración de hardwar ISA Plug and Play.
* Configuración del correo electrónico.

Se recomienda realizar un respaldo (backup) del sistema de forma regular.
Tambien crear un disco booteable de emergencia, este servira para recuperar el root filesystem en caso que este se corrompa y no se pueda inicar desde el disco duro.

Finalmente, debe registrar el SCO Openserver.

Estos ultimos puntos serán explicados con mayor amplitud en los próximos capitulos.

FUENTE:
TRADUCCION LIBRE DE:
http://osr507doc.sco.com/en/GetStart/islN.install.html

Microsoft explica reciente error en Windows Genuine Advantage

http://www.diarioti.com/gate/n.php?id=15093



Numerosos usuarios legítimos de Windows Vista se vieron enfrentados a las advertencias que Microsoft presenta en línea a los usuarios de copias pirateadas del sistema operativo. La compañía explica ahora el error.

Durante el pasado fin de semana, varios usuarios con licencias válidas de Windows vieron, incrédulos, como el sistema de validación del sistema operativo (Windows Genuine Advantage - WGA) les advertía que estaban usando software ilegal, y que deberían adquirir una licencia del producto antes de 30 días.

En el blog de WGA, Microsoft explica que se trató de un error humano.

Durante una actualización del sistema de cifrado usado para la activación y validación de la licencia de Windows, uno de los empleados de la compañía instaló los algoritmos demasiado pronto en los servidores de producción.

El problema en cuestión fue solucionado en los 30 minutos siguientes, pero el sistema de validación continuó ejecutando los algoritmos durante varias horas.

El error resultó en que los usuarios de copias legítimas de Windows perdieran funciones como el interfaz gráfico Aero y las funciones Defender y ReadyBoost, entre otras.

Fuente: Blog de WGA.

30 agosto 2007

Aprendamos Unix!:Capítulo I Introducción al Unix

El UNIX es un sistema operativo de tiempo compartido y multiusuario de gran aceptación mundial.
Fue creado a finales de los años 60 por Ken Thompson quien escribió la primera versión para los laboratorios Bell, en principio se llamaba UNICS(UNiplex Information and Computing System) era un programa basado en lenguaje ensamblador y monousuario desarrollado para el computador DEC PDP-7.
Con el correr de los años se han desarrollado varias versiones, a continuación mostramos un recuadro al respecto:


Algunas de las ventajas del Unix son:
1- Disponibilidad del código fuente: UNIX permite el acceso al código fuente (que son las instrucciones originales en las que fue escrito) para ser adecuado a necesidades del usuario, también para corregir desperfectos.
2- Diseño Flexible: Su arquitectura es modular, esto facilita la adición al sistema operativo de nuevas herramientas, aplicaciones o utilidades; también la migración del sistema operativo a nuevas plataformas de hardware o dispositivos.
3- Entorno de programación: El UNIX ofrece muchas herramientas de software (como compiladores e interpretes para la mayoría de los lenguajes de programación actuales). También incluye editores de textos, debuggers, linkers, etc.
4- Librerías de Sistema: Son una colección de software usadas para el funcionamiento de las aplicaciones. El UNIX incluye una gran colección de funciones y rutinas que pueden accesarse desde diferentes lenguajes de programación.
5- Excelente documentación: El UNIX incluye una adecuada documentación en línea (dentro del mismo UNIX) así como varios libros publicados.

Concluyendo, las principales características del UNIX son:
1- Portabilidad.
2- Operaciones multi-usuario.
3- Independencia de los dispositivos.
4- Utilidades y herramientas incluídas dentro del Sistema Operativo.
5- Estructura jerárquica de Archivos.

Fuente: Mcgraw-Hill - Unix System Administration - A Beginner'S Guide (Hp-Ux, Solaris, Linux) - 2002

Las mejores portátiles con Windows Vista

http://www.pcwla.com/pcwla2.nsf/articulos/249B5AB07939B4AF852572EC00534CCB

La nueva versión de Windows puede ser un desafío para algunas portátiles. Nuestras pruebas le indicarán cuáles portátiles tienen suficiente potencia para manejar Vista.

Ahora mismo sería un buen momento para invertir en una portátil, ya que muchas vienen con una copia del sistema operativo Windows Vista para hacer más atractiva la compra. ¿Pero es el nuevo SO suficiente motivo para actuar ahora, o debe usted quedarse con su confiable portátil Windows XP durante un tiempo más?
Para averiguarlo, reunimos 15 portátiles equipadas con plataforma Vista de fabricantes como Acer, Asus, Dell, Fujitsu, Gateway, HP, Lenovo, Micro Express y Toshiba, en dos categorías: modelos para sustituir equipos de escritorio, que tienen suficiente potencia para actuar como su PC primaria, y ultraportátiles que pesan menos de 5 libras. Medimos la duración de la batería y la velocidad, y evaluamos cuidadosamente las pantallas, los teclados y otras características vitales.
Clasificamos las cinco mejores portátiles en cada categoría y otorgamos los premios a la Mejor Compra a la HP Pavilion dv9000t (US$2.301), un modelo sustituto de escritorio, y a la Dell XPS M1210 (US$2.150), una ultraportátil. La adornada dv9000t es una elegante portátil de multimedios, con una pantalla de 17 pulgadas y exterior de diseñador, mientras que la M1210 es la mejor expresión de Dell en un paquete de 4,9 libras completo con una interfaz dedicada al entretenimiento, velocidad vertiginosa y batería de larga duración.
Esta evaluación también marca el estreno de WorldBench 6 Beta 2, la versión más reciente del conjunto de pruebas de PC World para las PC. El equipo de nuestro Centro de Pruebas de PC World modificó las pruebas de referencia para añadir compatibilidad con Vista y expandió las pruebas que ponen a trabajar a los sistemas provistos de múltiples núcleos. También mejoramos nuestra prueba de baterías con un nuevo guión automatizado que alterna la escritura simulada en un teclado con vídeos de calidad de DVD a pantalla completa (por supuesto, en vista de sus diversas actualizaciones, las puntuaciones de WorldBench 6 Beta 2 no son comparables con los resultados anteriores obtenidos en WorldBench 5). Visite www.worldbench.com para más información.
Entonces ¿qué puede esperar usted de este primer lote de portátiles equipadas con Vista? Aunque son abundantes en gráficos y acaparan mucha memoria, Vista y su interfaz Aero 3D lucen magníficos y funcionan bien en estas portátiles provistas de la potencia adecuada; la mayoría de los modelos de nuestra evaluación trae 2GB de memoria. Si usted compra una portátil con Windows Vista ahora, encontrará más problemas de compatibilidad en el software y hardware que con una portátil con Windows XP. Por ejemplo, algunas estaciones de acoplamiento actualmente inutilizan la interfaz Aero de Vista. Pero la mayoría de las fuentes de incompatibilidad son idénticas a las que encontraría en una PC de escritorio con plataforma Vista, e irán desapareciendo a medida que los vendedores actualicen sus aplicaciones y sus controladores.
Aunque algunos de los modelos evaluados aquí son portátiles de la era XP con sistema operativo trasplantado, otros están entre las primeras portátiles en aprovechar algunos de los adelantos evolutivos inspirados por Vista. Por ejemplo, aunque la Toshiba Portégé R400-S4931 quedó fuera de nuestra tabla debido a su desempeño limitado y a un precio considerable de US$3.499, ésta y la Asus W5fe-2P025E de US$2.199 fueron los dos únicos modelos en implementar la tecnología SideShow de Vista. Las portátiles equipadas con Sideshow vienen con una pequeña pantalla secundaria en la tapa o en el borde –tan pequeñas como las pantallas externas de los teléfonos plegables– que pueden presentar información útil (como su agenda de citas en Outlook), incluso cuando la portátil está apagada.
La Portégé R400-S4931, la Asus U1F y la Fujitsu LifeBook P7230 tienen nuevas pantallas iluminadas por LED que son notablemente más brillantes y más fáciles de leer que un panel regular con iluminación fluorescente. Las pantallas iluminadas por LED también son más delgadas y usan un tercio menos de energía, lo que redunda en máquinas portátiles más livianas con baterías de mayor duración. En otro hecho sin precedente, probamos formalmente una portátil –la Acer Aspire 9810-6829– que tiene una enorme pantalla de 20,1 pulgadas.

Las mejores portátiles Vista para sustituir sistemas de escritorio
Aparte de la Acer, con su pantalla de 20,1 pulgadas, todas las portátiles Vista para sustituir sistemas de escritorio que probamos venían con pantallas de 17 pulgadas; y algunas venían con sintonizadores de TV, unidades de HD DVD, mandos a distancia para Media Center y más.

1- HP Pavilion dv9000t
Desde su estreno el otoño [boreal] pasado como una máquina basada en Windows XP, la dv9000t ha estado entre las pocas portátiles capaces de mostrar películas HD DVD en alta definición, y esto lo puede hacer en su propia pantalla WXGA+ de 17 pulgadas o en un televisor HDTV conectado a la portátil por el puerto HDMI integrado.
La dv9000t es preciosa, con una tapa negra llamativa y brillante, y bisagras ocultas. Por dentro, la parte superior de la tapa está adornada por un sofisticado patrón ondulante y el teclado tiene una membrana retroiluminada sensible al tacto que controla las aplicaciones de multimedios. Con la portátil apagada, si usted pasa el dedo por la membrana se abrirá el menú HP QuickPlay para prescindir de Windows y reproducir directamente colecciones de películas, música, vídeos y fotos aunque estén almacenadas en la unidad de disco duro, en la unidad de discos ópticos, o en una tarjeta de memoria.
La portátil viene también con un sintonizador de TV ExpressCard digital/analógico, un mando a distancia y un adaptador de cable coaxial.
La dv9000t es suficientemente veloz y potente para manejar cualquier tipo de aplicación. El chip Core 2 Duo T7200 de 2 GHz, los 2GB de RAM y la unidad de disco duro de 120GB ayudaron a la unidad a obtener una muy meritoria puntuación de 74 en WorldBench 6 Beta 2, tres puntos más que la marca promedio de 71 para el grupo de máquinas sustitutas de escritorio.
Con sus 7,7 libras, el peso de la dv9000t es intermedio y las 2,5 horas de duración de la batería es un resultado apenas regular.
Gracias a su controlador de gráficos nVidia GeForce Va 7600 con 256MB, la dv9000t se defendió bien en nuestras pruebas de reproducción, y alcanzó velocidades de cuadros mejores que el promedio. Se desempeñó mejor en nuestro conjunto de pruebas de Far Cry a una resolución de 1.024 por 768 (79 cuadros por segundo), pero tuvo la rapidez suficiente en cada prueba para establecerse como una sólida portátil para juegos.
La dv9000t es una excelente portátil apropiada para el trabajo y los juegos. La duración de su batería no es nada del otro mundo, pero su pantalla grande y su barra táctil para multimedios agradará a los amantes del cine.

2 -Gateway NX860XL
Algunas portátiles que cuestan menos que esta NX860XL de US$2.055 tienen unidades de disco duro mayores, más ranuras de tarjetas, o teclados más bonitos, pero la NX860XL las supera con su combinación de una pantalla de alta calidad, un desempeño veloz y altavoces robustos.
La NX860XL se siente sólida y pesa 8 libras (sin contar el adaptador eléctrico). Aunque no es el modelo para sustituir sistemas de escritorio más ligero que hemos visto recientemente, su peso es bastante razonable para una portátil de esta clase.
La pantalla Gateway Ultrabright de 17 pulgadas es brillante pero no excesivamente reflexiva y su resolución WSXGA+ de 1.680 por 1.050 píxeles es perfecta para manejar trabajos gráficos y tareas corrientes.
La distribución del teclado de la NX860XL es excelente; tiene además un panel táctil de tamaño razonable, con un área de desplazamiento dedicada donde usted puede deslizar un dedo para mover una página hacia arriba o hacia abajo, que le ayuda a escribir con más eficiencia.
La unidad que probamos incluía una unidad de disco duro de 80GB, lo que es decepcionante si se considera que algunos modelos de menos de US$1.000 ofrecen 120GB de almacenamiento (se puede aumentar la capacidad a 100GB o 200GB cuando haga el pedido).
La duración de la batería no es nada impresionante, con 1 hora, 56 minutos con la unidad normal de ocho celdas. Una batería de doce celdas que se vende por US$44 debe mejorar las cosas, aunque sobresale por la parte trasera de la portátil.
Configurada con un procesador Core 2 Duo T7400 de 2,16 GHz y 2GB de RAM, la Gateway obtuvo una puntuación de 80 en WorldBench 6 Beta 2, sólo dos puntos menos que la puntuación máxima de 82 alcanzada por la Micro Express NP5760 equipada con un Core 2 Duo T7600 de 2,33 GHz. Y gracias a su potente tarjeta de vídeo nVidia GeForce Va 7900 GS con 256MB, la NX860XL brilló en nuestras pruebas de juegos, donde terminó segunda detrás de la Micro Express en velocidad de cuadros y manejó Doom y Far Cry sin contratiempos.
Si necesita trabajar como un esclavo durante el día y se relaja con Doom 3 cuando la oficina se vacía, la NX860XL tiene la potencia, la pantalla y el audio para avergonzar a casi todas las otras portátiles.

3 -Micro Express NP5760
La Micro Express NP5760 (US$2.499) tiene un rendimiento estupendo, pero esto queda contrarrestado por una unidad de discos ópticos pésimamente diseñada, un peso muy grande de 9,2 libras y una efímera duración de 1,8 horas en la batería.
Al incluir Windows Vista Home Premium y el veloz chip Core 2 Duo T7600 de 2,33 GHz, la Micro Express, como era lógico, alcanzó una puntuación de 82 en WorldBench 6 Beta 2, la mejor del grupo. Se coronó fácilmente como la mejor portátil para juegos, al cronometrar más de 80 cuadros por segundo en todas nuestras pruebas, entre ellas Far Cry (a 1.024 por 768 de resolución, sin suavización de bordes, donde tuvo unos velocísimos 100 cps.
Este modelo para sustituir sistemas de escritorio también viene equipado con un sintonizador de TV, webcam de 1,3 megapíxeles integrada, teclado y botones de medios, y un mando a distancia para Windows Media Center.
Por conveniencia, los diseñadores de la portátil parecen haber ubicado la grabadora de DVD de doble formato a la izquierda, lo más cercana posible al frente de la portátil. Pero más de una vez cuando levantamos la unidad, apretamos accidentalmente el botón de expulsión, lo cual hizo que saliera la bandeja con el disco todavía dando vueltas.
A pesar de esta desventaja, la Micro Express NP5760 es una portátil potente capaz de cualquier tarea de entretenimiento o trabajo que se le ocurra. Pero tenga cuidado por dónde la agarra.

4 -Acer Aspire 9810-6829
La enorme pantalla de 20,1 pulgadas y 1.680 por 1.050 píxeles de este modelo para sustituir sistemas de escritorio es brillante y nítida, y sus altavoces son excelentes. Puede servir como una estación de trabajo potente y un equipo de juegos adecuado, incluye TV, webcam y características de teléfono VoIP.
Con dimensiones gigantescas de 18,7 pulgadas de largo por 15,1 pulgadas de fondo y 2,7 pulgadas de alto, la 9810 ocupa un 40 por ciento más de espacio que un modelo para sustituir sistemas de escritorio de tamaño promedio. Pero para una unidad tan grande, tiene una batería decente que dura 2 horas y funciona sin calentarse mucho.
La pantalla, cuyo espesor es de 1,25 pulgadas, es más gruesa que el resto del equipo y tiene una pata de apoyo incorporada para impedir que se caiga hacia atrás. No es sorprendente que el peso total sea de 17,3 libras (19,2 libras incluido el adaptador eléctrico).
La 9810-6829 puede realizar bien cualquier operación y maneja múltiples ventanas abiertas como una campeona. En los juegos, ejecutó a la par con la HP Pavilion dv9000t, que tiene el mismo chip de gráficos Nvidia GeForce Va 7600 con 256MB. La velocidad de cuadros para ambas portátiles fue más que suficiente para reproducir Doom y Far Cry sin omisiones ni artefactos. El chip Core 2 Duo T7200 de 2 GHz de la Acer, los 2GB de RAM y el sistema operativo Windows Vista Ultimate se unieron para producir una puntuación de 75 en WorldBench 6 Beta 2, casi idéntica a los 74 puntos de la HP Pavilion dv9000t. Nuestra unidad de prueba venía configurada con dos unidades de disco duro de 5.400 rpm y 160GB para un total de 360GB de almacenamiento.
En general, la 9810 es óptima para cualquier propósito estacionario, pero especialmente para trabajar en varias ventanas. El teclado es cómodo y los altavoces estéreo Acer 3Dsonic de 1,5 vatios, más el altavoz de bajos BasSonic de 4 vatios producen un sonido rico y fuerte.
Si quiere la portátil más grande y más fácil de ver, la Acer 9810-6829 de US$2.999 es la selección obvia.

5 -Toshiba Satellite P105-S6217
La Toshiba Satellite P105-S6217 (US$1.649) no es una portátil de alto rango, pero sería una opción excelente como una segunda PC para el hogar o como un sólida sustituta de sistemas de escritorio en una oficina pequeña. Con un peso de 7,4 libras, también es bastante ligera para una portátil que tiene una pantalla grande de 17 pulgadas.
Aunque el panel táctil cargado de iconos parece un juguete, resultó ser una de las mejores características de la portátil. Un toque en la esquina superior derecha cambia del modo de cursor al modo de botones y activa los símbolos sensibles al tacto que usted puede usar para abrir seis aplicaciones diferente o sitios de la Web.
El almacenamiento es sumamente generoso: el espacioso disco duro de 200GB le invita a grabar programas de TV que consumen gigabytes de espacio. La lenta velocidad giratoria de 4.200 rpm de la unidad de disco –junto con el procesador Core 2 Duo T5500 de 1,66 GHz de la portátil– mantuvieron la marca de la Satellite en WorldBench 6 Beta 2 en un modesto 68, tres puntos por debajo del promedio de 71 para nuestro grupo de modelos sustitutos de sistemas de escritorio. Pero la duración de su batería, de poco menos de 2 horas, desilusiona.
Para lo único que no sirve esta portátil son los juegos en 3D. La memoria mínima de 128MB del chip nVidia GeForce Va 7300 se notó en nuestras pruebas. Far Cry y Doom 3 con la suavización de bordes activada lograron funcionar a duras penas a 7 y 13 cps. Sin la suavización de bordes, sólo Far Cry podía funcionar, y no muy bien, a 37 cps.
No es la portátil de multimedios más elegante del mercado, pero esta máquina equipada con Windows Vista Home Premium lo hace todo bien. Tiene un sintonizador de HDTV externo, incluso una antena de escritorio para recibir las señales. Los altavoces estéreo Harman/Kardon producen un sonido extraordinario. Cuatro botones cuadrados situados más arriba del teclado reproducen, detienen, y hacen retroceder y avanzar los CD y DVD; y si usted deja un disco en la grabadora de DVD, podrá oprimir el Botón
de medios para comenzar la reproducción.

Preguntas Frecuentes sobre Google.

http://www.buscadores.ws/ficha_google.htm



¿Cuándo nació el buscador?
Google fue fundado en septiembre de 1998 por Larry Page y Sergey Brin, dos estudiantes de doctorado de Stanford.

¿Cómo nació el buscador?
Larry Page y Sergey Brin se conocieron en 1995, cuando tenían 24 y 23 años respectivamente, en un acto organizado por la Universidad de Stanford. Ambos tenían un objetivo en común: conseguir información relevante a partir de una importante cantidad de datos. En enero de 1996 iniciaron su colaboración en un buscador llamado BackRub. Larry empezó a trabajar en la forma de conseguir un entorno para los servidores que funcionara con PCs de gama baja y que no necesitará de potentes máquinas para funcionar. Un año después, la tecnología utilizada por BackRub para analizar los links empezaba a ser conocida en todo el campus, obteniendo una gran reputación. Era la base sobre la que se construiría Google.
El nombre proviene de un juego de palabras con el término "googol", acuñado por Milton Sirotta, sobrino del matemático norteamericano Edward Kasner, para referirse al número representado por un 1 seguido de 100 ceros. El uso del término refleja la misión de la compañía de organizar la inmensa cantidad de información disponible en la web y en el mundo.

¿Cuál ha sido su evolución? (Breve historia del buscador)
Durante los primeros meses de 1998, Larry y Sergey continuaron trabajando para perfeccionar la tecnología de búsqueda que habían desarrollado. Utilizaron sus dormitorios como centro de datos y oficinas. Con esta infraestructura iniciaron la búsqueda de inversores que les ayudaran a financiar su novedosa tecnología, superior a todas las existentes hasta la fecha. A pesar de la fiebre de las “puntocom” en ese momento, Larry y Sergey tenían poco interés en montar una empresa propia cuyo negocio fuera el motor de búsqueda que habían desarrollado.
Entre estos posibles inversores, se encontraba David Filo, amigo de ambos y uno de los fundadores de Yahoo!. Filo les animó a que ellos mismos desarrollaran el proyecto, creando una empresa basada en el buscador cuando estuviera completamente desarrollado. Aunque el potencial que tenía era enorme, se encontraron con la negativa de muchos portales, que consideraban el hecho de tener un buen buscador como algo secundario en sus objetivos.
Así pues, tomaron la decisión de poner en marcha el proyecto y buscar capital para abandonar las habitaciones y acabar de pagar todo el material que habían comprado para los servidores. Hicieron un plan de empresa y fueron en busca de inversores. Su primera visita fue al amigo de un miembro de la facultad.
Andy Bechtolsheim, uno de los fundadores de Sun Microsystems, enseguida vio que Google tenía un potencial enorme. Sólo pudieron mostrarle una pequeña demo pero fue suficiente para que inmediatamente les diera un cheque por valor de 100.000 $, a nombre de Google Inc. Pero surgió un pequeño problema: no existía aún una empresa llamada Google Inc., por lo tanto no podían cobrar ni ingresar el cheque. Un par de semanas más tarde decidieron buscar nuevos inversores entre familiares, amigos y conocidos para poner en marcha la compañía
El 7 de septiembre de 1998, Google Inc. ya disponía de oficinas propias en Menlo Park, California, todo un lujo comparado con la situación en la que habían estado hasta entonces.
Google.com, todavía en fase beta, tenía unas 10,000 búsquedas cada día. La prensa empezaba a hablar del nuevo buscador y de su excelente funcionamiento.
En 1999 consiguieron 25 millones de dólares de dos importantes inversores: Sequoia Capital y Kleiner Perkins Caufield & Buyers. Las modestas oficinas ya eran pequeñas para todos los directivos y trabajadores de Google, así que se trasladaron a Googleplex, la actual sede central de Google en Mountain View, California.
Nuevos e importantes clientes iban llegando, como por ejemplo AOL/Netscape que escogió a Google como su servicio de buscador, haciendo que superase los 3 millones de búsquedas al día. Lo que empezó siendo un proyecto univeritario ya era una gran empresa con un crecimiento impresionante.
El 21 de septiembre de 1999 desapareció definitivamente de Google.com la etiqueta que lo identificaba como una versión beta.

¿Dónde está la sede?
Google Inc.
2400 Bayshore Parkway; Mountain View, Calif. 94043
Telephone: 650.330.0100
Fax: 650.618.1499
Email: info@google.com
Web: www.google.com

¿Quiénes son sus propietarios/accionistas? ¿Cotizan en bolsa?
Google es una empresa privada. Tiene inversores como: Kleiner Perkins Caufield & Byers; Sequoia Capital; la Universidad de Stanford; Andy Bechtolsheim, cofundador de Sun Microsystems y actual vicepresidente de Cisco Systems; y Ram Shriram, quien ha sido presidente de Junglee y vicepresidente de Desarrollo de Negocios en Amazon.com.


--------------------------------------------------------------------------------

¿Cuál es su filosofía?
La filosofía de Google permanece intacta desde su aparición: organizar la información mundial y hacerla universalmente accesible y útil. Google continúa creciendo para descubrir nuevas tecnologías de búsqueda que mejoren la vida de los usuarios.

Organigrama y personal (departamentos, número de trabajadores, etc.):
Google tiene más de 800 trabajadores.

Equipo de dirección:
Dr. Eric E. Schmidt, Presidente y director ejecutivo
Sergey Brin, Cofundador y presidente de tecnología
Larry Page, Cofundador y presidente de productos
George Reyes, Director financiero
Wayne Rosing, Vicepresidente de ingeniería
Omid Kordestani, Vicepresidente sénior de desarrollo de negocios y ventas internacionales
David C. Drummond, Vicepresidente de desarrollo corporativo
Jonathan Rosenberg, Vicepresidente de gestión de productos
Tim Armstrong, Vicepresidente de ventas de publicidad
Joan Braddi, Vicepresidente de servicios de licencias
Urs Hölzle, Becado Google
Craig Silverstein, Director de tecnología
Cindy McCaffrey, Vicepresidente de marketing corporativo
John Doerr, Kleiner Perkins Caufield & Byers
Michael Moritz, Sequoia Capital
Ram Shriram

¿Qué servicios ofrece?
Buscador de webs, imágenes y newsgroups. Tiene un directorio de webs organizado por temas, proporcionado por ODP.

¿Cómo funciona el buscador?
La innovadora tecnología de búsqueda Google y su diseño de interfaz de usuario diferencian a Google de las máquinas de búsqueda de primera generación. Se basa en los hipertextos, analizando todo el contenido de cada web y la posición de todos los términos en cada página. Se da prioridad a los resultados de acuerdo con la proximidad de los términos de la búsqueda, favoreciendo los resultados en los que los términos de búsqueda están próximos entre sí, sin perder tiempo analizando resultados irrelevantes.

¿Qué criterios se utilizan para ordenar los resultados de una búsqueda?
Google se basa en la tecnología PageRank, lo que asegura que los resultados más importantes se muestran primero. PageRank mide objetivamente la importancia de las páginas web y se calcula que resuelve una ecuación de 500 millones de variables y más de 2.000 millones de términos. Los complejos mecanismos automáticos de búsqueda de Google permiten prescindir de la interferencia humana. Está estructurado de manera que nadie puede comprar un lugar privilegiado en la lista ni alterar los resultados con fines comerciales (nadie puede comprar un PageRank más elevado, por ejemplo).

¿De cuántos enlaces dispone su base de datos?
De más de 3.000 millones de páginas web.

¿Cuántas búsquedas se realizan al mes?
Más de 5,000 millones de búsquedas. Aproximadamente, unos 200 millones de búsquedas cada día.

¿Cuál es su fuente de ingresos?
Google vende su tecnología de búsquedas (Google WebSearch™ y Google SiteSearch™), incluyendo una suite repleta de funciones y posibilidades completamente automatizadas. Muchos portales y webs corporativas de grandes empresas de todo el mundo han elegido la tecnología de Google para sus necesidades de búsqueda.
La publicidad es otra de sus fuentes de ingresos. Google ofrece a los anunciantes dos sistemas publicitarios: Premium Sponsorship (un vínculo de texto aparente aparece en la parte superior de la página de resultados de Google cuando la palabra clave o la frase que se haya comprado se incluye en las búsquedas de los usuarios) y AdWords (sistema de Coste por clic, totalmente personalizable, donde únicamente se paga cuando los usuarios hacen clic en el anuncio).
Además, Google también dispone de una tienda online donde vende todo tipo de merchandising relacionado con la marca (http://www.googlestore.com).
Tipos de publicidad que se admiten en el buscador (campañas de banners, Pago Por Clic, etc.): AdWords y Premium Sponsorship.

29 agosto 2007

Toshiba anuncia disco duro de 320 GB





Toshiba empezará la producción en masa de las unidades de disco a partir de noviembre del presente año.
Toshiba Corporation anunció el lanzamiento de nuevas unidades de discos duros de 2.5 pulgadas (6.35 cm) que cuentan con los últimos avances en tecnología de esta empresa.
Las nuevas unidades de disco incluyen MK3252GSX, el cual logra la capacidad de 320GB, y MK2049GSY, que mejora el desempeño con una velocidad giratoria de 7,200 rpm.

MK3252GSX usa un cabezal de lectura y escritura mejorado, así como una capa magnética para incrementar la densidad aérea y para lograr una capacidad de almacenamiento de 320GB. MK2049GSY ofrece una velocidad giratoria de 7,200 rpm e integra una memoria de 16MB, dando soporte al proceso de alta velocidad de grandes cantidades de información.

Ambos modelos soportarán una función opcional de Sensor de Caída Libre, que detecta la caída del disco duro y detiene el cabezal antes de que se colapse.

Los nuevos discos también cumplen con las directrices de la Restricción de uso de certificación de sustancias peligrosas (RoHS por sus siglas en inglés) de Estados Unidos, la cual entró en vigor en julio de 2006.

28 agosto 2007

Para qué sirve High Performance Computing

http://www.microsoft.com/latam/technet/articulos/tn/2007/ago-03.mspx

El mercado de la computación de alta performance, o supercomputación, se dinamizó a partir del release, en junio del 2006, de Windows Compute Cluster Server 2003 (llamado así por estar basado en Windows Server 2003 pero, por lo demás, totalmente nuevo).

En ese momento, Bill Gates había declarado que la supercomputación “es crucial para muchos de los descubrimientos que impactan en nuestra calidad de vida, desde fabricar autos y aviones más seguros y eficientes, hasta resolver asuntos de salud globales y cambios en el medio ambiente”.

A partir de ese momento, la consolidación de estos sistemas vino de la mano de los procesadores multi-core, interconexiones de alta velocidad basadas en estándares y la cada vez más extendida plataforma X64 (o sea, x86 de 64 bits). Asimismo, la interfase conocida, la gran integración con el entorno de desarrollo de Visual Studio y los bajos costos, comparados con soluciones alternativas, contribuyeron a que en poco tiempo, Windows Compute Cluster Server de Microsoft sea visto como un serio contendiente en el mercado de la supercomputación.

Microsoft invirtió en diez institutos de investigación en computación de alta performance para llevar a cabo proyectos conjuntos que ayuden a realizar investigación en software e innovación de productos a fin de resolver los desafíos tecnológicos que presenta la supercomputación. Estos institutos se encuentran en universidades como la de Cornell, en USA, Nizhni Novgorod en Rusia, Tokyo Institute of Technology en Japón y Stuttgart, en Alemania.

Algunos de los socios tecnológicos de Microsoft en el despliegue de HPC incluyen a Dell, IBM, SGI y NEC. Muchos están llevando a cabo implementaciones altamente sofisticadas, como el caso de un cluster Dell en el National Center for Supercomputing Applications (NCSA), que posee 2500 servidores y alcanzó en poco tiempo el puesto 27 en la lista Top500 de supercomputadoras.

De acuerdo con observadores del mercado, cuando Microsoft lanzó oficialmente CCS en agosto del año pasado, se esperaba que pudiese acercarse un poco a Linux en un buen número de benchmarks y que se pudiese alcanzar, por lo menos, la cifra de 128 procesadores por sistema. Sin embargo, algunos socios como HP fueron capaces de afinar sus sistemas y vencer a Linux en varias de las pruebas. Y más de la mitad de los clusters vendidos, que corren Windows Compute Cluster Server (CCS) 2003, tienen más de mil procesadores.

Recientemente, Hewlett Packard firmó un acuerdo multimillonario con Microsoft para llevar HPC al mercado masivo y está vendiendo CCS 2003 como parte de su HP Unified Cluster Portfolio. Por su parte, Fujitsu Computer Products of America acaba de publicar un documento con las mejores prácticas para el despliegue de HPC usando Windows.

Incluso IBM, que tradicionalmente ha ofrecido Linux para sus propuestas de HPC, ya había suscripto un acuerdo de partnership con Microsoft para ofrecer CSS 2003 con sus sistemas.

Es importante destacar que el concepto de High Performance Computing, comúnmente asociado a la supercomputación, fue variando con el tiempo. Por un lado, se había comenzado con mainframes monolíticos que, poco a poco, fueron dejando paso a la arquitectura de clusters, utilizando equipos estándar. Por el otro, había nacido inicialmente para resolver temas de investigación científica o problemas de ingeniería.

Sin embargo, más recientemente se empezó a utilizar este concepto en funciones de negocios, tales como data mining en grandes datawarehouses o en el procesamiento de transacciones. Sistemas operativos como Windows Compute Cluster Server 2003 son un paso más para lograr la masificación de estas funciones de computación de alta performance.

Los jóvenes y las nuevas tecnologías

http://www.7dias.com.do/app/article.aspx?id=6560

Un joven chino corriente tiene 37 amigos online a los que no conoce, la juventud de la India ve los teléfonos móviles como un símbolo de estatus, y uno de cada tres adolescentes británicos y estadounidenses afirman que no pueden vivir sin su consola de videojuegos. Estos son algunos de los descubrimientos del estudio global Circuits of Cool/Digital Playground llevado a cabo por MTV y Nickelodeon, en asociación con Microsoft Digital Advertising Solutions, sobre cómo niños y jóvenes interactúan con la tecnología digital.

Un joven que use la tecnología digital tiene 94 números en su agenda del móvil, 78 amigos en un servicio de mensajería instantánea y 86 personas en su red social. A pesar de esta inmersión tecnológica, los jóvenes digitales no son geeks: el 59% de los niños de 8 a 14 años prefieren la televisión al ordenador, y sólo el 20% de los jóvenes de 14 a 24 años admiten estar interesados en la tecnología. Son, sin embargo, expertos "multitarea" y capaces de filtrar distintos canales de información. El estudio denota que los amigos influyen tanto como los vendedores y son tan importantes como las marcas. A los niños y jóvenes no les gusta la tecnología por sí misma, les gusta la manera en que les permite comunicarse, expresarse y entretenerse.


Las comunicaciones digitales como la mensajería instantánea, el correo electrónico, las redes sociales online, el móvil y los SMS son complementarios a la televisión, no compiten con ella. La televisión forma parte de las conversaciones digitales de los jóvenes. A pesar de los notables avances en la tecnología de la comunicación, la cultura de los niños y jóvenes sigue siendo sorprendentemente familiar. La mayoría de los jóvenes usa la tecnología para fortalecer la interacción cara a cara, en lugar de sustituirla.


La reputación de Japón como un país enamorado de la tecnología es distinta de la realidad. Los jóvenes japoneses viven en casas pequeñas y tienen poca intimidad, no suelen tener sus propios ordenadores hasta que van a la universidad, y se relacionan mucho fuera de su hogar. Por ello su dispositivo digital fundamental es el teléfono móvil, que les ofrece portabilidad e intimidad. Además, a diferencia de otros países, los niños y jóvenes japoneses tienen pocos amigos online y son los que menos uso hacen del correo electrónico y la mensajería instantánea. China tiene el menor consumo de móvil entre los jóvenes y el 93% de los niños tienen más de un amigo por internet al que no han visto nunca en persona.

En países con una fuerte cultura de ocio al aire libre, como Italia, Brasil y Australia, los jóvenes usan los móviles para quedar, ligar y hacer fotos de sus amigos, mientras que en los países del Norte de Europa se vive la tecnología de forma práctica, a pesar de ser los que más están inmersos en ella. De todas las nacionalidades encuestadas, los jóvenes daneses son los que afirman que no podrían vivir sin móvil (80%) o televisión (75%), y los holandeses no podrían vivir sin correo electrónico (85%).


El estudio muestra también el enorme impacto que la tecnología ha tenido en la profundidad y la cantidad de amigos que tienen los jóvenes de 14 a 24 años. Muchos de esos jóvenes afirman que las nuevas formas de comunicación les permiten hablar de temas más íntimos. El 53% afirma que puede conocer mejor a la gente, y 4 de cada 10 ven más fácil hacer amigos y se sienten menos solos gracias a internet. Los jóvenes tienen 20 amigos online de media, y son los brasileños los que encabezan la lista con 46. Son las chicas entre 14 y 17 años las que menos tiempo pasan en internet (21 horas a la semana), mientras que los chicos entre 22 y 24 años son los que más, con 31 horas a la semana. El 100% de los consultados se comunican cada vez que entran en Internet.


Las redes sociales online son una actividad cada vez más frecuente para más de la mitad de los jóvenes, y el 35% de ellos afirman que hacen uso de esta tecnología porque todos sus amigos lo hacen también. En Reino Unido, una de las razones más determinantes por las que los jóvenes entran en redes sociales online es evitar sentirse apartado de sus amigos. En cuanto al impacto en los negocios, la mayoría de jóvenes encuestados aseguran que el 88% de los links que abren y el 55% del contenido viral que se descargan lo hacen por recomendación de sus amigos. "En una época en la que los jóvenes se influyen unos a otros tanto como lo hace el marketing, los amigos pasan a ser tan importantes como las marcas. Los niños y jóvenes tienen mucha más capacidad de influencia, por lo que las marcas tienen que ser suficientemente interesantes para que esta audiencia hable sobre ellas. Deben destacar, si no, no serán respetadas, algo que es difícil de entender para algunas marcas", afirma Andrew Davidson, vicepresidente de VBS International Insight, MTV Networks International.


El estudio muestra que los niños y jóvenes no han cambiado significativamente en los últimos 15 años. Los niños viven rodeados de tecnología desde que nacen, pero las cosas que más les gusta hacer son: ver televisión (85%), escuchar música (70%), salir con sus amigos (68%), los videojuegos (67%) y pasar tiempo en internet (51%). Cuando entran en la adolescencia el ranking de sus pasatiempos favoritos cambia. El favorito de los jóvenes de 14 a 24 años es escuchar música (70%), seguido de ver la televisión y salir con los amigos (ambos con el 65%). Después se encuentran actividades como ver DVD´s (60%), relajarse (60%), ir al cine (59%), entrar en Internet (56%), pasar tiempo con la pareja (55%), comer (53%) y estar en casa (49%).




Otro de los descubrimientos del estudio es que a los jóvenes les sigue gustando la buena publicidad. Si bien "el mejor anuncio que han visto últimamente" ha sido en la televisión, las empresas tienen la oportunidad de incluir sus anuncios en las nuevas tecnologías que usan los niños y jóvenes, incluida la mensajería instantánea y las redes sociales online, sobre todo porque en el 47% de las conversaciones de mensajería instantánea se habla de "lo que están poniendo ahora mismo en televisión".




Fuente: www.marketingdirecto.com

Tecnología revoluciona ventas tarjetas teléfonos en colmados

http://www.listin.com.do/app/article.aspx?id=26276

SANTO DOMINGO.- Los adelantos electrónicos y la eficiencia de los sistemas de flujo de información digital han revolucionado las ventas de tarjetas de llamadas para celulares con modalidad prepagada, que se efectúan diariamente en los colmados.

La compañía Lotería Electrónica Internacional Dominicana, S.A (LEIDSA) tiene instalados en numerosos colmados del país puntos de venta de sus propios productos de lotería electrónica, estos sistemas que asignan números también pueden proporcionar los códigos de tarjetas de llamadas. El gerente general de LEIDSA, Wilgin Peña, explica que la empresa que administra no tiene terminales para vender pins de tarjetas de llamadas, sino que se aprovechan las máquinas que despachan los boletos de Loto para vender el pin de llamadas electrónico.

A parte de la modalidad física que ofrecen en material plástico las compañías de telecomunicaciones, por medio de LEIDSA están distribuyendo también los códigos en papelitos impresos y por medio de pago por transferencia de “minutos” cuando el cliente da su número de celular. “Los colmados han optado por vender el pin electrónico porque así se hacen menos suceptibles a los asaltos, además de que el dueño del establecimiento no tiene que pasar inventario sobre esa clase de mercancía”, sostiene Peña al manifestar una de las ventajas del sistema de distribución que proyecta.

Los puestos de LEIDSA en los colmados pueden entregar el pin directamente por la computadora o en un papelito. El sistema funciona con la disponibilidad de códigos de tarjetas al por mayor y a solicitud del cliente se le proporcionan los códigos con los montos en pesos por minutos que solicite.El alto ejecutivo de la empresa privada de juegos de azar señaló que las terminales distribuyen los pin de las terjetas de Claro, Tricom y la tarjeta Oye. Entre todos los puntos de venta que tiene LEIDSA en los colmados, se puede vender hasta cuatro mil códigos de tarjetas diarias.

La comisión que el consorcio se gana por distribuir las tarjetas depende las negociaciones que realiza con la cada compañía telefónica, el aproximado que pueden obtener en ganacias por esta vía es del uno por ciento. Las ventajas que se destacan del sistema de LEIDSA son, por ejemplo, que en el servidor de la empresa puede dar seguimiento a un usuario cuyo pin tenga problemas o no funcione y libra al colmado de poseer activos que inventariar y proteger de los ladrones. También el punto electrónico siempre tiene tarjetas de todas las denominaciones y montos contrario a cuando es físico que las denominaciones más populares se agotan. “Es que el departamento técnico siempre está atento a que haya en existencia suficiente inventario de cada denominación”, resaltó Peña.

Los colmaderos Julio Santana, dueño del Supercolmado Julito, en Herrera, manifiesta satisfacción por la implementación del sistema de LEIDSA en su establecimiento, ya que vende alrededor de 40 tarjetas diarias, entendió que “lo mejor” es tenerlas electrónicamente “para que los delincuentes no nos asalten por ellas”.


GANANCIAS
Rafelín Castillo, propietario del Supercolmado Rafelín, ubicado en Los Mina, dice que debe disponer por lo menos de RD$10 mil para adquirir las tarjetas que le proporciona a su clientela. También, Castillo reveló que el margen de ganancias que un detallista tiene al comercializar las tarjetas de llamada es “muy poco”. Cuando se vende una tarjeta de RD$100, el detallista se gana siete pesos.

Son cuatro pesos los que se gana un colmadero cuando un cliente compra en su negocio una tarjeta de RD$60 ó 50, de cualquier compañía de telecomunicaciones con servicio de línea móvil prepagada. El sistema electrónico contempla las mismas comisiones.

Santana estaba pensando en dejar de vender tarjetas, “porque el margen de ganancias es pobre y tenía que tener un capital fijo para adquirir otras” sin embargo, cuando le propusieron instalar un punto de venta lotería, que de igual forma puede vender los código de tarjetas, vio el panorama distinto.

“Ya no tengo que tener el dinero a mano para abastecerme de tarjetas, lo que hago es que pago mensual o semanalmente a la empresa de lotería por los códigos que vendo”.

Logran eliminar bloqueo de iPhone con software

Desde el lanzamiento del iPhone al mercado estadounidense, entusiastas de todo el mundo han intentado vulnerar la protección incorporada al teléfono. El bloqueo en cuestión impide usar el aparato con un proveedor de telefonía que no sea AT&T.

Los autores del hack han creado un sitio denominado iPhoneSIMfree.com, desde el que planean ofrecer comercialmente el software de desbloqueo.

Según Engadget, el hack funciona incluso al reinstalar el sistema operativo del iPhone. Toda la funcionalidad original continúa, y sólo es necesario instalar YouTube. El único elemento que no funciona, claro está, es el buzón de voz de AT&T.

Desde el lanzamiento del teléfono de Apple se han registrado numerosos intentos por desbloquear el aparato. En algunos casos, más bien humoradas, se incluye una soldadura para el teléfono.

En el sitio de Engadget se publica una ilustración del procedimiento.

Por el momento se desconoce la reacción de Apple -o de AT&T ante el hack.

Enlaces de interés:
www.engadget.com

Acer compra a Gateway y pasa al tercer lugar

http://www.diarioti.com/gate/n.php?id=15053

Lenovo y Acer compiten por comprar empresas y así crecer. Acer acaba de ganar una batalla parcial.

Toda la industria del PC valora las ventajas de operar a gran escala, por lo que el sector asigna gran importancia a "ser el más grande". HP es el mayor fabricante de computadoras del mundo después que Dell comenzara a retroceder.

Paralelamente, Acer y Lenovo compiten por el tercer lugar. A comienzos de agosto trascendió que Lenovo considera comprar Packard-Bell, en tanto que Acer también consideraba comprar uno de sus competidores.

La compra de Gateway por parte de Acer es ahora una realidad, según se especulaba a comienzos de mes. Acer ha comprado a Gateway por 710 millones de dólares, con lo que se convierte en el tercer mayor fabricante de computadoras del mundo. Los analistas se preguntan ahora si tal posición quizás será efímera si Lenovo concreta la adquisición de Packard-Bell, con base en Holanda.

Gateway está basada en EEUU y vendía directamente a los consumidores, pero finalmente perdió la batalla contra Dell.

Problemas al validar software de Microsoft

http://www.idg.es/pcworld/Problemas_al_validar_software_de_Microsoft/doc59790.htm

Durante el pasado fin de semana, los servidores encargados de validar las copias de los productos de Microsoft, dentro del programa Windows Genuine Advantage, han tenido varios problemas que han impedido a los usuarios descargar parches y actualizaciones desde sus entornos habituales (Windows Update o Microsoft Update).
Los servidores encargados del programa Windows Genuine Advantage se encargan de validar las copias de los sistemas operativos de los clientes, de tal forma que puedan detectar software pirata o las claves de producto que se distribuyen por internet, de tal forma que puedan aislar este tipo de copias ilegales, impidiendo la descarga de las actualizaciones y dejándolas completamente desprotegidas ante las vulnerabilidades conocidas y públicas.

Lo que ha sucedido durante el pasado fin de semana es que estos servidores han experimentado problemas a la hora de realizar este tipo de comprobaciones, de tal forma que, cuando los usuarios que trataban de validar copias legales de sistemas operativos como Windows XP o Windows Vista (en sus versiones tanto de 32 como de 64 bits), obtenían un mensaje de error en que el que eran informados de que su copia de Windows no podía ser validada, impidiendo así la descarga de las actualizaciones y los parches disponibles en a través de Windows Update.

Aunque en un principio, representantes de la compañía apuntaban a que los problemas quedarían resueltos antes de mañana martes 28, parece que el servicio de autenticación de licencias ya ha sido restaurado y actualmente está validando los sistemas sin mayores incidencias. No obstante, por el momento Microsoft no ha querido comentar las posibles causas del problema, ni se han descartado por completo nuevas recaídas en las próximas horas.

27 agosto 2007

Entrevista al Ing. Joel Pimentel sobre Call Centers.

A continuación,presentamos una entrevista que nos concedió muy gentilmente el Ing. Joel Pimentel, Gerente informático de STI Prepaid, uno de los Call Centers más avanzados tecnológicamente de la República Dominicana.
De antemano agradecemos su tiempo.

1- Antes que nada, hablemos un poco de su experiencia en el mundo Informático, y sus funciones actuales.

Ing. Joel Pimentel

Maestría: Ingeniería de Sistemas de Información mención Gerencial, O&M.

Postgrados:Ingeniería del Software, O&M Auditoria de Sistemas Computacionales, O&M

Grado: Ingeniería de Sistemas de Información, Unapec

Diplomados:Planificación y Gerencia de Proyectos, Quality. Alta Gerencia, Unicaribe

Certificaciones:CCNA, ITLA.

Cursos: Network +,IT Essential,Configuración de redes LAN, Inforedes

Actualmente me desempeño como IT Manager para la empresa STI Prepaid, en la cual estoy encargado de toda la parte tecnológica de la empresa. Entre las funciones podemos citar:
- Planificación y organización del día del departamento y por ende el personal a mi cargo.
- Mantenimiento de los Servidores de comunicación y transferencia de archivos.
- Switching & Routing
- Manejo de las politicas de seguridad
- Monitoreo de la seguridad y control de Spam
- Deteccion de conflictos de red, aplicaciones, etc.
- Manejo y control de telefonia IP.
- Proyectos




2- ¿Qué es un call Center?

En mis palabras, un Call Center o Contact Center no es mas un centro donde se reúne personal ya sea para recibir o realizar llamadas con el propósito de ofertar o dar servicio.

Un ejemplo claro de esto es cuando uno llama a algún tipo de servicio que es realizado vía telefónico (banco, teléfono, luz, etc.) y una persona te contesta para ofrecerte un servicio.

3- ¿Cuáles son los requerimientos técnicos y humanos mínimos que se necesitan para configurar un Call Center exitosamente?

Esto dependerá de la envergadura de Call Center que se desee instalar.

Por ejemplo, si solo quieres ubicar unos cuantas personas a hacer o recibir llamadas desde los Estados Unidos, solo basta con comprar una cuenta (número) en internet donde puedas recibir o llamar y este numero configurarlo con tu router Linksys (por mencionar alguno). Queda asumido que debes tener mínimo las pc’s donde se correrá la aplicación que vas a dar servicio, la conexión al internet, Mínimo DSL a 1mgb para tener buena holgura a la hora de transmitir voz.

Ya para empresas especializadas en este servicio, necesitas equipos y personal para el manejo de dichos equipos. Empresas como Cisco Network, son los proveedores de equipos tecnológicos para call center mas a la vanguardia de estos tiempos, ofreciendo toda la gama de equipos de interconexión, desde router y switches hasta los mismos teléfonos IP. Para mas información sobre la instalación de call center avanzados puede dirigirse a: http://www.cisco.com/en/US/netsol/ns708/networking_solutions_products_generic_content0900aecd80590ee5.html

4- Háblenos de su compañía STI Prepaid en lo referente a sus recursos tecnológicos.

En el caso de la empresa donde laboro, los equipos que utilizo son Router y Switch Cisco, firewall, servidor de telefonía IP conectado a la PBX de la casa matriz en NY, servidores de las aplicaciones propias de la empresa, conexión rápida a Internet (en estos momentos tenemos 2 líneas de fibra óptica a 10mb cada una) servidor para la transferencia de archivo y correo electrónico,


5- ¿Han implementado comercio electrónico en sus operaciones? detallenos un poco.

En nuestro caso no, ya que somos una empresa que recibe llamadas para dar servicio al cliente, nuestro objetivo principal es proveer una adecuada atención al cliente que esta al teléfono buscando resolver el problema por el cual el llama.

6- ¿Cuanto es el tiempo de vida útil del Hardware y software de STI Prepaid?

En cuanto al hardware, lamentablemente en nuestro país, el tiempo de vida útil es simbólico, ya que con los repentinos apagones o fluctuación en el servicio eléctrico (no importando los equipos que tengas para controlar dichas fluctuaciones) los equipos tienden a no durar lo establecido por el fabricante. Adicionalmente a esto, el avance de la tecnología es imparable, así que nuevos equipos con mucho mas especializaciones salen al mercado que son más convenientes al tipo de negocio que realizamos. Cuando esto sucede, se hace un estudio de impacto para ver en que medida esto pudiese afectar al Call Center y en que tiempo se retribuye el dinero gastado.

Esto mismo pasa con la parte del software, siempre se esta en búsqueda del mejoramiento continuo para facilitar el manejo con los usuarios finales y que este a su vez sea mas amigable y fácil.

Para concretizar y contestar tu pregunta, la vida útil no esta expuesta por un tiempo especifico, sino por el tiempo que las condiciones ameriten.


7- ¿Qué medidas de seguridad (firewalls, etc.)han establecido para protegerse de ataques externos?

Entre algunas de las medidas están:
- Firewall para el manejo de la paquetería entrante y saliente a nuestra red.

- Lista de acceso en el switch

- Conexión sólo a los routers que tienen acceso a poder vernos viceversa.






8 -¿Se puede decir que los Call Centers han sustituido a las zonas francas?

Algo que hay que tener bien claro es conocer el significado de Zonas Francas. Una Zona Franca es un espacio donde compañías tanto de capital interno como foráneo, poseen empresas que fabrican o dan algún tipo de servicio pero las mismas están amparadas bajo las leyes de Zonas Francas del país.

Un gran número de Call Centers buscan instalarse dentro de Zonas Francas porque:

- No pagan impuestos de importación. O sea, que todo lo que traigan que sea para el trabajo diario de la empresa entra al país libre de impuesto.
- No pagan impuestos al país.
- Las Zonas Francas ofrecen mayores facilidades de instalación en cuanto a infraestructura se refiere.

El fracaso de Vista

http://www.rebelion.org/noticia.php?id=55352

José G. Arribas
Rebelión

Que el último sistema operativo de la multinacional Microsoft, Windows Vista, no ha producido ni de lejos el impacto social ni los beneficios económicos que sus creadores habían previsto, parece que es algo ya indiscutible. Aunque son varias (1) las ocasiones en las que se ha intentado explicar dicho fracaso por causas tecnológicas, su falta de éxito ha radicado también en una concepción errónea de lo que es un sistema operativo y de cuál debe ser su utilidad final.

La informática doméstica, la cual parece ser el principal objetivo de mercado de Vista, se ha caracterizado en los últimos años por tres fenómenos: la proliferación de tecnología malintencionada, la compartición de materiales y contenidos por internet y la reproducción no autorizada de producciones digitales. El primer fenómeno ha influido de tal manera en los usuarios, que disponer de un sistema que no cuente con algún sistema de protección (un antivirus, un cortafuegos, un bloqueador de ventanas o un filtro de correo) ha llegado a considerarse poco menos que una temeridad. El segundo factor, el acceso generalizado a las posibilidades de compartición que internet ofrece, ha provocado que aquellos ordenadores que no estén conectados a la red sean considerados prácticamente como inservibles. El tercer factor, la facilidad con la que se pueden realizar copias digitales de contenidos, incluso sin apenas conocimientos técnicos, ha venido como consecuencia del segundo, pues la mayoría de lo que se reproduce son materiales obtenidos de la red, no habiéndose accedido a ellos por los canales digamos “convencionales” de adquisición.

Todo sistema operativo que quiera tener éxito entre los usuarios debe tener en cuenta estos tres factores, y Vista, como sistema operativo y desde el punto de vista del usuario, no lo ha hecho, pues ni evita los efectos perniciosos que conlleva la utilización del ordenador, ni mejora en alguna medida la capacidad y la potencia de la utilización del mismo, ni evita la instalación de sistemas accesorios de protección (antivirus, antispam, etc.) ni facilita la compartición de contenidos, ni permite una mejor o más rápida gestión del proceso de grabado y/o visionado de los contenidos en soporte digital. Antes al contrario, lo que hace es entorpecer o directamente impedir lo que, nos guste o no, es una de las actividades habituales del usuario doméstico medio.

Vista no es un sistema más seguro que XP, pues utiliza la misma tecnología que provoca los fallos de seguridad de éste. Tampoco es un sistema más fácil de usar, pues ha introducido cambios en la operativa habitual que tienden más a confundir a los usuarios que a ayudarles. Su principal innovación, si queremos hacer caso a sus campañas publicitarias, son los efectos visuales en el escritorio, es decir, algo meramente estético que no sólo no aporta funcionalidades nuevas, sino que encima impide su utilización en máquinas poco potentes. Finalmente, tampoco facilita la utilización multimedia, pues su diseño paranoico le obliga a realizar continuas comprobaciones de que lo que está reproduciendo es legal, penalizando con ello la rapidez y la eficiencia.

Es en este último punto donde radica, a mi modo de ver, su fracaso. Una máquina no puede arrogarse la función de controlar si lo que se hace con ella es o no legal, pues dicha responsabilidad debe siempre de recaer en el usuario. Desde siempre, los sistemas operativos de Microsoft han intentado guiar al usuario doméstico, marcándole pautas de actuación e intentando adelantarse a sus pensamientos, actuando de forma obsesiva como “tutor” o “asistente”, pero esta nueva actitud cae más allá de su anterior servilismo: Vista ya no actúa como un “tutor” del usuario, sino como un “censor”. Nos encontramos así con que la máquina intenta imponer una actitud moral en el usuario a fuerza de impedirle o entorpecer la realización de ciertos actos, adoptando el sistema operativo una posición de superioridad moral sobre un usuario al que, desde el primer momento, se le considera culpable de intentar realizar operaciones ilegales (2). Que el método utilizado sea prácticamente idéntico al que se usa con la educación de un perro para que no se mee en la alfombra, muestra con claridad cuál es la consideración que los creadores de Vista han tenido hacia sus clientes.

Ese ha sido el gran error de Vista: considerar al usuario no como un cliente sino como un enemigo. La pregunta obvia que surge casi inmediatamente es: si el usuario no es el beneficiario final de la utilización de este sistema operativo ... ¿para quién o para qué ha sido diseñado entonces? No creo que a nadie se le escape que, dado que es evidente que ninguna empresa capitalista está especialmente interesada en la catadura moral de sus clientes, ni en las posibles consecuencias legales a las que éstos deban enfrentarse por la utilización de su ordenador, el motivo debe ser, como siempre ocurre en el capitalismo, puramente económico. Los creadores intelectuales de este sistema operativo no han sido los técnicos informáticos, sino los vendedores de material audiovisual, las grandes compañías que comercian con el entretenimiento y los organismos gestores de las patentes a la creación artística, que son los que más han ido viendo disminuir sus ganancias conforme pasa el tiempo y crece la generalización de la compartición de contenidos en internet. Estas empresas y organizaciones deben de ser, en última instancia, los verdaderos usuarios de Vista, pues dicho sistema operativo parece haber sido creado por y para ellos, pues sólo ellos pueden llegar a recibir algún tipo de beneficio como consecuencia de su utilización. La dificultad para diseñar medios de protección anti-copia realmente seguros, y la práctica imposibilidad de impedir la compartición de contenidos por internet, parece que ha conducido a querer llevar los sistemas de protección de los intereses comerciales directamente al sistema operativo del ordenador, intentando así controlar al usuario “malhechor” en su propia casa.

El Windows Vista es, por lo tanto, no sólo una tecnología prescindible, pues se sitúa por encima del umbral de lo necesario, sino que al mismo tiempo es perniciosa, pues sólo es útil a los poderosos. Evitar, sin embargo, que finalmente dicha concepción mercantilista y engreída de lo que es un sistema operativo se imponga, no parece todavía fácil. Por ahora el principal competidor de Vista es su predecesor, Windows XP, sistema que las empresas se resisten a sustituir y muchos usuarios de Vista recuerdan con añoranza. Habrá que ver si Microsoft se atreve o no a retirarlo del mercado el año que viene. Otra alternativa con posibilidades de éxito son los productos de Apple/McIntosh, pero esta empresa parece estar cómoda en un nicho de mercado más interesado por el estilo y la exclusividad que por la perfección técnica, por lo que no es previsible que, a menos que desciendan sus precios y cambien de imagen, aumenten su popularidad.

La única esperanza que nos queda, entonces, es la alternativa libre: el sistema operativo GNU/Linux (3). Este sistema operativo, aun cuando ha demostrado y demuestra con creces su capacidad técnica, a veces incluso superior a la de los productos de pago, se enfrenta todavía a graves problemas para su utilización generalizada, la mayoría de ellos producidos por la resistencia de los fabricantes de hardware a suministrar a los desarrolladores de software libre la información necesaria para permitir que éste sistema operativo funcione en sus productos. Habrá que esperar a ver si tienen éxito los por ahora tímidos intentos que algunos fabricantes como Dell, Lenovo o Acer (4) están haciendo para vender ordenadores con una distribución de Linux preinstalada en ellos desde fábrica.

La última palabra la tendrá, como siempre y por desgracia, el mercado. Linux ya no es un producto marginal o exclusivo de una comunidad de “locos informáticos”, y detrás de las distribuciones más populares hay también muchas empresas que esperan obtener éxito y ganancias económicas con él. Por ello, se hace más necesario que nunca tener claras las ideas sobre el software libre y lo que éste representa (5). Que desaparezca un monopolio es algo que generalmente beneficia a todos, pero la sustitución de dicho monopolio por una continua “guerra sucia” entre empresas en defensa de sus diferentes distribuciones y/o sistemas operativos tampoco es un escenario ideal, pues lo que conllevaría sería a la creación de grupúsculos de usuarios con sistemas no compatibles entre sí, con todo lo que ello significaría de merma en la universalidad de la comunicación de la que actualmente se disfruta. Generalizar el uso de estándares abiertos es tan necesario como fomentar el software libre: que cada cual tenga la máquina que pueda, use el sistema operativo que le de la gana y trabaje con el programa que más le guste, pero que el resultado de la creación digital se produzca en un soporte accesible y comprensible para todos los demás sistemas.

La informática doméstica (en el occidente rico, por supuesto, a veces da vergüenza hablar de ciertas cosas cuando tanta gente se muere de hambre o de un balazo) está dejando de ser un producto superficial de consumo o de diversión y se está incorporando a la vida de las personas como el instrumento más determinante en su formación (o deformación, según) cultural y debe ser por ello contemplada como tal.

J. G. Arribas

(1)Véase, por ejemplo:

“Las cinco claves del fracaso de Windows Vista” (http://www2.noticiasdot.com/publicaciones/2007/0207/1602/noticias160207/noticias160207-1696.htm)

“Vista fracasa en el impulso de las nuevas gráficas” http://www.theinquirer.es/2007/06/15/vista_fracasa_en_el_impulso_de.html#

(2) Contenidos HD en Vista: más calidad pirateados que originales http://www.kriptopolis.org/contenidos-hd-en-vista (3) Otra posibilidad, aunque todavía menos conocida que Linux, es el openBSD, pero este sistema operativo no tienen aún las posibilidades de uso y la compatibilidad de GNU/Linux. (4) Por ahora sólo en EE. UU. y algunos países de Europa como Reino Unido, Francia y Alemania. (5) Las razones del Software Libre http://www.rebelion.org/noticia.php?id=54188

Brecha digital contra la aldea global

http://www.cibersociedad.net/archivo/articulo.php?art=41

Por: Javier Villate

En los últimos meses se ha avivado el debate en torno a la denominada "división digital", la división entre quienes tienen acceso al nuevo mundo de las redes digitales de información y quienes no lo tienen. Los planes de la Administración Clinton, las reuniones del Grupo de los Ocho y de otros organismos internacionales que han abordado el tema, la sucesión de informes que han estudiado las características de esta nueva realidad, todo ello ha contribuido a la renovada actualidad de este debate.


En Internet nadie sabe que eres pobre

Hay un viejo dicho en la Red que hace referencia a la posibilidad abierta de ocultar buena parte de los rasgos de identidad de uno mismo en las comunicaciones. "En Internet nadie sabe que eres un perro". Efectivamente, nadie puede saber si eres alto o bajo, delgada o gorda, hombre o mujer, niño o anciano, si eres tartamuda o sufres de incontinencia verbal... Pero de algo todos podemos estar casi seguros: que ni tú ni yo somos pobres.

En la actualidad, somos más de 300 millones de internautas en todo el mundo y nos hemos multiplicado por tres mil en tan sólo siete años. Sin embargo, eso no significa más que tan sólo estamos conectados el 5 por ciento de la población mundial. Tras esa cifra ya podemos intuir que una profunda desigualdad está caracterizando al desarrollo de la red que llamamos global.

Hace tres años me hacía eco de una intrigante pregunta que hizo un habitual colaborador de Le Monde Diplomatique, Alain Gresh: "¿qué milagro haría falta para que los muchachos de los pueblos jóvenes de Lima, de las aldeas africanas o de los barrios neoyorquinos se encontraran en el ciberespacio?"2. Las estadísticas han cambiado, pero apenas ha sufrido alguna modificación sustancial la realidad que se esconde tras ellas. Según el informe sobre el Estado de Internet 2000 del Consejo de Internet de Estados Unidos3, sólo 1,5 millones de africanos están conectados a la Red, y de estos un millón viven en la República Sudafricana. Menos, pues, del 1 por ciento de los internautas son africanos4, a pesar de que sus casi 750 millones de habitantes representa el 10 por ciento de la población mundial. África, pues, está del otro lado de la brecha digital, está desconectada de una Red que difícilmente puede ser considerada global.

La estadística africana es más sangrante si la comparamos con los 136 millones de internautas que hay en América del Norte, los 83 millones que hay en Europa o los 233 millones que hay en Asia. En este último caso, esta estadística global no puede ocultar las enormes diferencias existentes entre países. Indonesia, con una población de 200 millones de habitantes, sólo cuenta con 900.000 usuarios de Internet. En Pakistán, con 140 millones de habitantes, hay solamente 250.000 usuarios; en Bangladesh, unos 40.000; en Nepal, 8.000 y en la India, cerca de un millón de cibernautas entre sus mil millones de habitantes. La mayor parte de Asia también está del otro lado de la brecha digital. Y lo mismo sucede con América Latina, con 4,1 millones de personas conectadas en estos momentos, a pesar de que una buena cantidad de estudios auguran fuertes tasas de crecimiento en esta parte del mundo.

Como ha señalado recientemente el World Resource Institute (WRI), unos 4.000 millones de personas apenas han sido afectadas por la revolución de la información. Esta prestigiosa organización ha señalado que hay más cuentas de Internet en Londres que en todo el continente africano y que el 80 por ciento de la población mundial está al margen del nuevo mundo digital. Otras fuentes han llamado la atención ante el hecho de que más del 90 por ciento de los servidores de Internet están en los países desarrollados y que Nueva York tiene más servidores que África, que Tokio tiene más teléfonos que toda África o que Finlandia tiene más servidores de Internet que América Latina. Y así podríamos seguir dando estadísticas a cual más alarmante.


Pobres entre los ricos

Sin embargo, la brecha digital también tiene su expresión en el interior de los países más ricos. En los últimos meses, Estados Unidos está viviendo un animado debate sobre esta cuestión, cuya superación ha sido calificada por el presidente Clinton como un "objetivo nacional".

Un informe de la Administración Nacional de Telecomunicaciones e Información (NTIA), Falling Through the Net: Defining the Digital Divide, publicado el pasado mes de julio, ha hecho balance de los esfuerzos llevados a cabo para cerrar la "división digital". A pesar de avances muy notorios5, las diferencias de rentas siguen siendo determinantes en el acceso a Internet. A pesar de que el 44 por ciento de la población del país ya está conectada a la Red, diversos estudios han señalado que mientras el 83 por ciento de las personas de los sectores sociales de mayores ingresos tienen acceso a Internet, el porcentaje se reduce al 35 por ciento entre los sectores de rentas más bajas. Según un estudio de la Federación de Consumidores de América, el ingreso medio de quienes están plenamente conectados es de 45.000 dólares, mientras que el de los que están desconectados es de 25.500 dólares.

Aunque en bien sabido que las desigualdades sociales son más grandes en Estados Unidos que en Europa, en el Viejo Continente también se ha abierto una brecha digital. Según un estudio de la Oficina Nacional de Estadística del Reino Unido, tan sólo una cuarta parte de los británicos estaban conectados a Internet en el primer trimestre del 2000, si bien esta cifra es el doble de la existente hace un año. Sólo el 3 por ciento de las familias con rentas más bajas tenía acceso a la Red el año pasado. Los porcentajes son notablemente más bajos en Irlanda del Norte, Escocia y el Noreste de Inglaterra. Estadísticas similares se han obtenido en estudios realizados sobre la población en línea australiana y de otros países europeos, aunque con peores resultados a medida que descendemos hacia el sur del continente. En términos globales, sólo el 22 por ciento de la población europea está conectada a Internet, una proporción que es la mitad de la estadounidense.


Buscando soluciones

La tarea de cerrar la brecha digital parece inmensa, casi inabordable. ¿Cómo se puede llevar Internet a 900 millones de analfabetos? ¿Cómo hacerlo a los tres mil millones de personas que sobreviven con menos de 400 pesetas al día? ¿Para qué pueden querer Internet los 1.200 millones de personas que carecen de agua potable? ¿O los 3.000 millones que no tienen atención médica? Como dicen algunos críticos de los planes de las grandes potencias sobre la "división digital", los pobres no comen ordenadores portátiles. Y lo que es peor, ¿cómo nos podemos tomar en serio los proyectos globales de ayuda y fomento del acceso del Tercer Mundo al nuevo mundo digital cuando la ayuda de los países ricos a los países pobres ha caído un 20 por ciento durante los años noventa?

No puede haber dudas de que cuando el hambre, las enfermedades y las guerras asolan las vidas y la muerte de millones de personas en África, Asia y América Latina, hablar del acceso a la información digital es una broma carente de los más elementales principios éticos. En el mejor de los casos, es una seria equivocación, porque nadie puede imaginarse a una persona hambrienta, o enferma de malaria, o de tuberculosis, o analfabeta, o que desconoce lo que es la electricidad, sentándose ante un teclado y un monitor. Eso no se lo puede creer nadie.

Y, sin embargo, por muy prioritarias que sean las necesidades de comida, salud, seguridad y paz, todavía debe incluirse en cualquier plan de desarrollo la promoción del acceso a las comunicaciones digitales, aunque sea en un lógico orden de prioridades. A fin de cuentas, las tecnologías de la información y la comunicación pueden ayudar a las economías de los países en desarrollo, a la comercialización de los productos de los agricultores, a la atención médica en las zonas rurales remotas, a la educación de los niños y jóvenes.

En este punto, no basta con "pensar global y actuar localmente"; hay que actuar también globalmente. Y eso pasa, en primer lugar, por dar pasos decisivos para cancelar la deuda de los países pobres. En la reunión de Colonia de 1999, el Grupo de los Ocho (G-8), que agrupa a los siete países más ricos del planeta y Rusia, decidió condonar 100.000 millones de dólares de la deuda de los 25 países más pobres. Pero un año después, sólo se han condonado 15.000 millones de dólares de nueve países. En la reciente cumbre de Okinawa del G-8, los líderes mundiales pasaron de puntillas sobre esta cuestión. Mientras tanto, como denunciara la organización no gubernamental británica Oxfam, con los 750 millones de dólares que se gastaron en la celebración de dicha cumbre se podría haber pagado la educación de 12 millones de niños durante un año.

Organismos internacionales como el Banco Mundial, el Programa de Naciones Unidas para el Desarrollo (PNUD), UNESCO y otros aprueban proyectos para ayudar a los países en desarrollo a recortar las distancias. El PNUD, por ejemplo, en colaboración con los gobiernos y el sector privado, tiene en marcha varios programas para ofrecer apoyo tecnológico y crear entornos reguladores apropiados para el desarrollo de las nuevas tecnologías en los países pobres. Además, está trabajando en el desarrollo de aplicaciones innovadoras que ayuden a luchar contra la pobreza y en favor del desarrollo humano. Es el caso, por ejemplo, del Servicio de Tecnologías de la Información de las Naciones Unidas (UNITeS), cuyo objetivo es formar grupos en dichos países para fomentar el desarrollo de los usos y las oportunidades de Internet y las tecnologías de la información. El PNUD también ha decidido trabajar con la Organización Mundial de la Salud y otras agencias internacionales para desarrollar la Health InterNetwork, que enlazará 10.000 sitios de hospitales y clínicas de países en desarrollo. Otro ejemplo es la colaboración del PNUD con la compañía Cisco Systems para establecer centros educativos en red en países africanos. Este organismo de Naciones Unidas también ha acordado con el Banco Mundial la creación de una "pasarela global de del desarrollo", que desarrollará la enseñanza a distancia. El Fondo Monetario Internacional, el Banco Mundial y representantes de varias multinacionales han creado el Foro Africano de Tecnología, con el fin de incrementar el acceso a las nuevas tecnologías en el continente negro.

El G-8 decidió en Okinawa crear un grupo de trabajo sobre Oportunidades Digitales --también denominado DOT Force--, el cual hará recomendaciones sobre cómo ayudar a los países pobres a recortar la creciente brecha digital. El objetivo de este grupo es "movilizar los recursos y coordinar los esfuerzos de gobiernos, sector privado, fundaciones, instituciones multilaterales e internacionales y otras organizaciones para recortar la división digital internacional y crear oportunidades digitales". Pero son pocos quienes confían en que un organismo que ha hecho tan poco en el pasado por luchar contra la pobreza y en favor del desarrollo del Tercer Mundo, vaya a cambiar ahora repentinamente de rumbo. El comienzo del citado grupo de trabajo tampoco es muy alentador. El DOT Force estará compuesto por dos representantes de cada país miembro del G-8, uno designado por el gobierno respectivo y otro en representación del sector privado. Ninguna representación de las respectivas sociedades civiles, cuyas organizaciones, según dicen, serán consultadas. En todo caso, los organismos internacionales han de cumplir sus promesas, como recordara Kofi Annan en las palabras citadas al comienzo de este artículo.

La participación del sector privado en esta ingente tarea es también vital. Hewlett Packard, por ejemplo, va a abrir el año que viene laboratorios informáticos en China e India. Su objetivo es conseguir un millón de socios, entre compañías multinacionales, organizaciones regionales y personas individuales, para proporcionar tecnología y servicios para programas de salud, educación, acceso a créditos y a mercados en mil comunidades rurales. Cisco Systems, además de su proyecto de colaboración con el PNUD, está desarrollando su programa Network Academy, orientado a la formación de jóvenes estudiantes, que ya ha supuesto la creación de 5.300 programas locales en todo el mundo, aunque 3.500 de ellos están ubicados en Estados Unidos. Es bien conocido, también, que Bill Gates ha creado su propia fundación con fines filantrópicos y que otros altos ejecutivos de grandes compañías de Internet han seguido su ejemplo. Podríamos seguir detallando muchos otros proyectos definidos por las grandes compañías privadas de las telecomunicaciones y de Internet, pero esta muestra será suficiente. No nos interesan las motivaciones --cada cual puede hacer sus conjeturas--, sino que los empeños sean coherentes y no medios para desarrollar mercados cautivos.

Que la participación, filantrópica o comercial, del sector privado es vital lo demuestra, también, el proyecto Africa ONE. Puesto en marcha por Lucent Technologies y Global Crossing, con una inversión de 1.900 millones de dólares, persigue conectar los países africanos a través de una red de fibra óptica para finales del 2002. El proyecto creará 32.000 kilómetros de cable de fibra óptica submarinos y entre 20 y 30 estaciones terrestres en las costas africanas. Según sus promotores, la capacidad de este cable de 80 gigaoctetos por segundo será un 70 por ciento más barata que las conexiones vía satélite. Además, ayudará a eliminar las tarifas de tránsito que pagan las operadoras africanas a los transportadores no africanos, estimadas en 400 millones de dólares.


La necesidad de un enfoque global

Si se quiere recortar la brecha digital entre países ricos y países pobres, hay que abordar sus necesidades básicas de forma conjunta. Los países en desarrollo necesitan inversiones y capital, infraestructuras, tecnología, expertos y equipos. Y necesitan todo eso simultáneamente; de lo contrario, cualquier proyecto estará destinado al fracaso. Se pueden emprender proyectos locales, animados por ONGs, gobiernos y emprendedores, pero su alcance será siempre demasiado limitado. Para que aquellas necesidades pueda ir siendo satisfechas, es preciso actuar sobre la cancelación de la deuda, sobre la creación de mercados competitivos y eficientes, sobre la erradicación de las enfermedades y el analfabetismo, sobre la educación y, finalmente pero no menos importante, sobre la participación de la sociedad civil y los ciudadanos en un marco de libertades democráticas. Hay que actuar sobre todos estos frentes si se quiere que los avances tengan bases sólidas para el futuro.

El Banco Mundial tiene razón cuando dice que hay dos tipos de brechas: la de la eficiencia de los mercados y la del acceso. Tiene razón cuando llama la atención de la necesidad de desarrollar en los países en desarrollo entornos dinámicos y competitivos para que puedan florecer la innovación y la iniciativa privada. En los países ricos hemos conocido las ventajas que ha supuesto la ruptura de los monopolios de las telecomunicaciones y la liberalización progresiva del sector. Pero también estamos conociendo sus insuficiencias, en particular cuando los antiguos monopolios siguen disfrutando de posiciones de privilegio por la debilidad de los gobiernos para establecer unas reglas de juego verdaderamente competitivas, así como por la escasez de políticas públicas que fomenten el acceso universal. Los países pobres deben tener en cuenta estas experiencias y el Banco Mundial, también.

Por eso es preciso subrayar que la iniciativa privada, aun siendo vital, debe ser complementada con políticas públicas que garanticen que nadie quede atrás y que todas las actuaciones se inserten en un plan global que sirva al interés público. Tan importante como el desarrollo de mercados competitivos y eficientes es el desarrollo de la educación y de la participación ciudadana en un marco de libertades democráticas. Como ha demostrado fehacientemente el economista indio Amartya Sen, premio Nobel de economía de 1998, el desarrollo no se identifica con el aumento de las rentas y de la riqueza, sino con el aumento de la libertad, de las capacidades de los individuos para llevar aquellos tipos de vida que tienen razones para valorar. Y esas capacidades sólo pueden desarrollarse cuando el hambre, las enfermedades, las guerras y la falta de educación dejen de ser factores determinantes que restringen las opciones que pueden tomar las personas. Unos mercados que estén rodeados de seres obligados a luchar diariamente contra el hambre y las enfermedades, machacados por la guerra, que no saben leer y escribir o que no pueden expresar libremente sus demandas, unos mercados así no serían más que cuerpos extraños, islas de una actividad económica que no podría expandir sus beneficios ni servir de motor del verdadero desarrollo.

Todos los planes y proyectos de organismos internacionales y grandes multinacionales deben adoptar este enfoque global si quieren realmente reducir esa brecha digital con la que no queremos vivir. Porque, en última instancia, el acceso que necesitamos los hombres y las mujeres de los países pobres y de los países ricos no es tanto el acceso a la información mercantilizada o a algún servicio específico como el acceso a la libertad de poder elegir el tipo de vida que queremos llevar.


Notas

1 Este artículo fue publicado originalmente en la revista en.red.ando el 7 de noviembre de 2000 en http://enredando.com/cas/enredantes86.html.
2 Cfr. "Norte y Sur en el ciberespacio. Ricos y pobres en la aldea global", 12-10-97, http://www.enredando.com/cas/cgi-bin/enredados/plantilla.pl?ident=107.
3 State of the Internet 2000, USIC, http://www.usic.org/papers/stateoftheinternet2000/intro.html.
4 Hay estudios más recientes que señalan que son 5 millones los africanos conectados a Internet, siendo el 70 por ciento sudafricanos y egipcios. Otros indican que la cifra ronda los tres millones. Las disparidades de las estadísticas sobre Internet --o los errores de los periodistas-- ya no extrañan a nadie.
5 El verano pasado marcó el momento en que, por primera vez, las mujeres han superado a los hombres en el uso de Internet en Estados Unidos y el número de afroamericanos, hispanos y otras minorías conectados a la Red ha crecido notablemente.

Hacker quita la seguridad al nuevo iPhone de Apple

http://www.hoy.com.do/article.aspx?id=123048

NUEVA YORK, (EFE).- Un adolescente de Nueva Jersey dice haber conseguido liberar un iPhone, que de momento sólo se vende vinculado a la red de telefonía móvil de AT&T, una hazaña que pretende rentabilizar cuanto antes poniéndolo en venta desde hoy en la famosa casa de subastas por internet eBay.

El joven de 17 años, George Hotz, asegura en su blog que ha logrado saltarse el sistema de protección del innovador móvil de Apple, lo que podría multiplicar instantáneamente el número de clientes potenciales, ya que hasta ahora sólo los estadounidenses están realmente interesados en el aparato.

Hotz, quien asegura haber trabajado con otras cuatro personas a través de internet, explica en su blog cómo violar en diez pasos el sistema de protección de los iPhone, el móvil con más márketing de la historia, mediante un proceso que combina modificaciones en el hardware y el software.

Desde que el móvil salió al mercado, el pasado 29 de junio, existen cientos de blogs y foros de internet en los que se debate sobre cómo quebrantar esa protección, que permitiría utilizar el aparato con cualquier otro operador y sin tener que aceptar las condiciones impuestas por AT&T y Apple.

Para rentabilizar su invención, Hotz ha decidido subastar en eBay el dispositivo desbloqueado como "una pieza única en la historia de la telefonía móvil".

El precio de salida fue de 540 dólares y las pujas alcanzaban los 2.175 dólares unas horas después de que apareciera en el famoso sitio de internet, donde permanecerá hasta final de mes.

Las abarrotadas tiendas de Apple en Nueva York están llenas de turistas deseosos de adquirir un iPhone para llevárselo a su país, por lo que los jóvenes que han sido convenientemente entrenados por la compañía informática para vender el aparato se quejan de tener que explicar cada día cientos de veces que, de momento, el móvil no se puede utilizar con normalidad fuera de EE.UU.

"Llegan japoneses con ánimo de comprar varios, pero cuando les decimos que están ligados a AT&T y que para darlos de alta hay que firmar un contrato de dos años con la compañía y facilitar datos como un número de la seguridad social estadounidense o una dirección de facturación en este país se quedan completamente desilusionados", explicó a Efe uno de esos vendedores en la mítica tienda del SoHo.