Buscando...
24 octubre 2008

Administración de TI (Curso Gratuito de INTEL)


http://www.sysadminday.com/images/people/SpeeD.Mag00017.jpgAlineación al centro


Complejidad de la tecnología

Hace poco más de 40 años, la informática era vista como una forma eficiente de procesar los datos y de posibilitar la automatización de funciones repetitivas, como las ejecutadas por los departamentos administrativos y contables de las organizaciones. En los años posteriores, su matrimonio con la electrónica, también llamada mecatrónica o automatización industrial, contribuyó a aumentar la eficiencia y la productividad en el área de fábrica de las industrias. En poco tiempo, otras importantes y radicales transformaciones cambiarían al mundo y, fundamentalmente, al sector corporativo.

La exitosa alianza entre informática y telecomunicaciones permitió hacer realidad el concepto de globalización, expandiendo las fronteras de las empresas hacia todo el mundo por medio de un simple clic en el mouse. El paso siguiente es la convergencia tecnológica, reuniendo funciones de teléfono, computadora, Internet, agenda electrónica, juegos, televisión, música, entre otras facilidades, en un único dispositivo.

Si para una persona común es difícil asimilar tantos cambios en tan corto espacio de tiempo, para un gerente del área de Tecnología de la Información (TI) de una empresa eso representa un enorme y constante desafío. La complejidad de los actuales parques de máquinas, redes y sistemas instalados es muy grande y está en continua evolución.

A eso se suma la necesidad cada vez más urgente de entender no sólo de bits y bytes, sino también de la estrategia de negocios de la compañía, para responder rápidamente a las necesidades de los clientes y del mercado y establecer con los proveedores y demás socios un intercambio de información eficiente y en tiempo real.

Por otro lado, la opinión de los usuarios internos de tecnología (empleados de los diversos departamentos de la empresa) también comenzó a ser considerada para la elección de herramientas y soluciones, obligando al gerente de TI a tener en cuenta el factor humano entre sus atribuciones y responsabilidades.

En este nuevo contexto, el profesional de TI necesitó y necesita reinventarse, volviéndose más flexible y abierto, y menos técnico y cerrado, como era imprescindible en un pasado no tan distante.

El ambiente centralizado

Retrocediendo en el tiempo, verificamos que, hasta fines de los años 50, las computadoras eran vistas como obra de la imaginación humana o como una fantasía extraída de los libros y películas de ciencia ficción. Prácticamente sólo unos pocos segmentos, como las áreas académica, militar y de gobierno, se aventuraban en la experimentación de las entonces grandiosas y complejas máquinas. En Brasil, el gobierno del Estado de San Pablo fue pionero al adquirir, en 1957, una Univac-120 para calcular el consumo de agua en la capital paulista. El equipo estaba formado por 4.500 válvulas, realizaba 12 mil sumas y restas por minuto y 2.400 multiplicaciones o divisiones por minuto.

En el sector privado, una de las primeras empresas que invirtió en ese sentido fue Anderson Clayton, que compró una Ramac 305 de IBM, en 1959. La máquina tenía casi 2 metros de ancho y 1,80 de alto, con mil válvulas en cada puerta de entrada y salida de la información, ocupando un piso entero de la empresa. Considerada, en su época, lo máximo de la innovación, esa computadora tardaba 5 minutos en buscar una información y la impresora operaba con una velocidad de 12,5 caracteres por segundo.

En poco menos e diez años, esas fabulosas máquinas evolucionaron y despertaron el interés de las empresas de gran tamaño, organismos del gobierno nacional y universidades. Eran los años 60, en los que reinaban absolutos los CPDs – Centros de Procesamiento de Datos, ambientes climatizados, cercados de paredes de vidrio, como una verdadera campana, y preparados para alojar a las grandes máquinas.

Los mainframes

En general, el CPD era un área separada dentro de la empresa, a la que sólo tenían acceso los profesionales directamente involucrados con las computadoras, como analistas de sistemas, técnicos de mantenimiento, programadores, operadores, entre otros. Inaccesible para los empleados de otros departamentos, el único eslabón entre esas islas informáticas y el resto de la compañía eran las pilas de formularios continuos conteniendo información procesada, solicitada por los usuarios de algún sector específico.

Hasta fines de los años 70, predominó lo que se acordó en llamar la Era de los CPDs, o también la Era de la Computadora, en la que todas las decisiones referidas a la tecnología estaban a cargo del gerente de procesamiento de datos y de sistemas de información. Ese profesional reportaba a la máxima autoridad financiera de la empresa, y era imprescindible que tuviera conocimiento y competencia esencialmente técnicos. La productividad era en aquel entonces el foco de la tecnología y la tendencia organizacional del área de informática era la de centralización.

En ese ambiente, el enfoque administrativo era el de control y las inversiones en tecnología eran conservadoras y debían pasar por el tamiz del área financiera de la organización. Confinados y aislados en el ambiente cerrado de los CPDs, el gerente y los otros profesionales de informática permanecían ajenos a las necesidades de los empleados de los diferentes departamentos y también a la estrategia de negocios de la empresa. Dedicaban todo el tiempo a la creación de algoritmos, rutinas, lenguajes de programación, desarrollo de aplicativos y otras funciones técnicas.

Cuando necesitaban justificar nuevas inversiones en el sector, los gerentes de informática se preocupaban por demostrar las ganancias de costos del sistema, de mano de obra y de manutención, y no los beneficios propiciados por la tecnología para la empresa como un todo. La mayor dificultad, en esa época, era convencer al directorio financiero sobre la real necesidad de las inversiones requeridas para aumentar la capacidad de los sistemas, mantenimiento y desarrollo de nuevos aplicativos. El área de informática era básicamente vista como un sector generador de gastos y considerada “un mal necesario”.

El entorno cliente/servidor

A comienzos de la década del 80, los avances de la microelectrónica favorecieron el desarrollo de computadoras más pequeñas, que ocupaban menos espacio y, al mismo tiempo, se volvían más poderosas en lo que respecta al aumento de la capacidad de procesamiento, agilidad y memoria, siendo también más accesibles en términos económicos. A partir de 1975, todas las funciones necesarias para el funcionamiento de una computadora ya estaban integradas en un solo chip. La capacidad de memoria se duplicaba año a año. Gradualmente, el procesamiento de informaciones dejaba de realizarse en lotes de transacciones (en tiempo posterior o batch) y pasaba a ser online (en tiempo real), o sea, las actualizaciones de los archivos se realizaban a medida que las transacciones eran efectuadas.

Pero fue a partir de los años 90, con la evolución de la microinformática, que los cambios se tornaron más significativos y visibles. La Era de los CPDs llegaba a su fin para dar comienzo a la “Era de la Información”. Lentamente, los grandes mainframes, demasiado complejos para los usuarios comunes y que exigían personal altamente especializado para operarlos y encargarse de su mantenimiento, y encima de todo, muy costosos, comenzaron a ser reemplazados por máquinas servidoras de aplicativos, en un proceso bautizado downsizing y rightsizing. En muchas empresas, sin embargo, los mainframes se preservaron para operaciones más complejas y estratégicas.

Fueron agregándose nuevas máquinas y periféricos al parque de las empresas. Las redes de terminales “dummy” conectadas al mainframe fueron reemplazándose por las estaciones cliente y por las computadoras de escritorio – los personal computers (PCs) – provistos de interfaces gráficas y aplicativos que hicieron que su operación fuera más fácil y amigable para las personas que no tenían conocimientos de tecnología.

Comenzaba a cobrar fuerza el modelo cliente-servidor, proporcionándole a todas las esferas de la empresa el acceso a la información. El ambiente centralizado y cerrado del mainframe y de los antiguos CPDs abrió lugar a plataformas heterogéneas. En esa época, comenzaban a proliferar las empresas de software, aumentando la oferta de software básico y paquetes aplicativos, decretando el fin de la era de la arquitectura propietaria y abriendo camino hacia el entorno abierto y la compatibilidad entre los diferentes sistemas.

Los aplicativos empresariales

La informática comienza a ser entendida como Tecnología de la Información e inclusive las medianas y pequeñas empresas se convierten en usuarias. En las grandes compañías, surge un nuevo tipo de profesional, el CIO - Information Officer, definido como el más alto ejecutivo, cuya principal función es administrar la información. El gerente esencialmente técnico sale de escena y entra el ejecutivo, que debe ser principalmente un hombre de negocios, con capacidad de administrar los recursos de información y actuar como un estratega de la tecnología.

La competencia requerida para el cargo es la administración de negocios. El CIO pasa a reportar al CEO - Chief Executive Officer o Director Ejecutivo, y se sitúa al nivel de la alta gerencia. El enfoque de la tecnología pasa a ser la ventaja competitiva de la empresa frente a la competencia, la misión, la innovación tecnológica y las inversiones en el sector son agresivas. El área de informática deja de ser vista como un sector meramente generador de costos, y pasa a ser considerado el factor esencial para mantener la agilidad de la empresa, su poder de competencia y permitir su inserción en el nuevo orden económico dictado por la globalización.

Al mismo ritmo que las innovaciones del hardware, surgen las ondas tecnológicas y los respectivos paquetes de aplicativos, orientados a integrar a toda la empresa y a aumentar la productividad y facilitar la comunicación y transmisión de datos en diferentes niveles. Los sistemas de administración empresarial, conocidos por la sigla ERP (Enterprise Resource Planning) son adoptados inicialmente por las empresas de gran tamaño y, a continuación, por el middle market. La oferta de nuevos aplicativos para todos los tipos de usuarios prolifera en escala exponencial. La informática está en todos lados y gana nuevos y poderosos aliados: Internet y las innovaciones en el campo de las telecomunicaciones.

En las industrias, el empleo de la TI permite no sólo agilizar la producción, sino también facilitar el contacto directo con proveedores y socios de negocios. El punto central son las redes internas y externas, el intercambio electrónico de documentos (EDI, reemplazado por Web EDI), código de barras, y soluciones que permitan la perfecta integración con la cadena de provisión (supply chain).

En el sector financiero, la atención se orienta hacia la seguridad y al almacenamiento de los datos y a los aplicativos de misión crítica. Las operadoras de telecomunicaciones y empresas minoristas y del sector de servicios priorizan los paquetes que permiten identificar y seleccionar a los clientes, como las soluciones de Customer Relationship Management (CRM), o administración de las relaciones con el cliente. Las soluciones de Business Intelligence, que permiten el análisis de los datos desde las más variadas e inusitadas perspectivas, comienzan a llamar la atención de las empresas de diferentes sectores. La oferta de productos se diversifica todavía más y se mantiene en continua evolución.

En todos los tipos y tamaños de empresas, los usuarios pasan a tener participación activa en la elección e implementación de nuevas herramientas Su colaboración se vuelve imprescindible para el éxito de los nuevos proyectos tecnológicos.

El Futuro

Paradójicamente, al mismo tiempo en que la tecnología se vuelve más flexible para un mayor número de personas, su administración es cada vez más compleja. El gerente de TI debe dirigir ambientes heterogéneos compuestos por máquinas de diferentes épocas y fabricantes, intranets, extranets, redes locales (LAN), redes de larga distancia (WAN), redes y dispositivos inalámbricos (notebooks, handhelds, palmtops etc.), comunicación por satélite, software para diferentes aplicaciones, firewall, antivirus, política de seguridad y una serie de cuestiones puramente tecnológicas.

Pero, a pesar de eso, todavía debe ocuparse de otros aspectos: saber escuchar, respetar y cubrir las necesidades de los profesionales de todos los sectores de la empresa, integrar hardware y software nuevos con los legados, evaluar las innovaciones tecnológicas, no descuidar los aspectos relacionados con la seguridad, ocuparse de reducir y controlar los costos, alinear la TI a la estrategia de negocios de la empresa, y demostrar los beneficios propiciados. Estas son sólo algunas de sus nuevas atribuciones.

En la actualidad, administrar la TI significa saber trabajar las ideas y los problemas de tal modo de analizar la cuestión bajo diferentes perspectivas integradas: los factores estratégicos, funcionales, técnicos, tecnológicos y de costos. También es importante saber administrar a terceros, ya que la tendencia de transferir buena parte de las funciones de TI a empresas externas y especializadas crece.

El gerente de TI deberá enfrentarse a nuevos desafíos, como el grid computing, también llamado utility computing y computación a pedido – una manera de organizar los recursos de TI como las concesionarias públicas usan las redes eléctricas para brindar sus servicios.

El concepto, hasta ahora más utilizado por las comunidades técnicas y científicas que por los negocios comerciales, permite que los usuarios compartan energía, almacenamiento de datos, base de datos y otros servicios en tiempo real. Sin embargo, esa tendencia, según afirman los consultores de mercado, todavía demorará entre 10 y 15 años para hacerse en realidad. Abordaremos este tema con mayor profundidad en los demás módulos.

Alvin Toffler, consultor y periodista norteamericano, autor de varios libros y respetado como “futurólogo”, señala que estamos viviendo lo que él llama la Sociedad de Información de la Tercera Ola, en la que el conocimiento se transformó en el activo más importante de las empresas en lugar de la producción. El desafío de los administradores de todo el mundo, según su opinión, será el de crear redes de conocimiento capaces de conectar los elementos monetarios de sus negocios a los factores no monetarios, como la articulación de la sociedad civil, que cuestiona el comportamiento ambiental de las empresas.

Toffler destaca tres puntos clave para la administración del futuro. El primero de ellos es el efecto de la velocidad, que significa la capacidad de hacer un seguimiento de todas las informaciones que afectan directa o indirectamente los negocios. El segundo es el efecto de la complejidad, que implica administrar la diversidad de necesidades emanadas de una sociedad informada, o sea, la capacidad de ofrecer productos personalizados para cada cliente. Y, finalmente, el efecto de la constelación, que se refiere a la capacidad de detectar las innumerables redes interconectadas en un negocio. Esto no se restringe a identificar áreas de negocios, proveedores y consumidores, sino que exige poner especial atención en la estrategia, que debe ser capaz de coordinar los varios aspectos que componen la actividad económica.

0 comentarios:

 
Back to top!