jueves, 1 de diciembre de 2011

Segunda Feria Tecnológica de Inacap 2011



En el área de informática y telecomunicaciones los temas más importantes que se expusieron fueron:

“IMPORTANCIA DE LAS CERTIFICACIONES CISCO” dictada por el Sr. Mauricio Mora.



Se destaco el uso de las tecnologías impuestas por cisco y sus productos, además de recalcar  la diferencias y oportunidades laborales que adquiere un técnico que posee certificaciones en comparación de los demás que no las tienen, también se refirió a las nuevas políticas que se están implementando en nuestro país para hacer más fácil la rendición de los exámenes para postular a las certificaciones indicando que prontamente comenzara a funcionar  una especie de oficina móvil para tomar los exámenes en distintos lugares del país, ya que, estas estaban centralizadas en Santiago solamente hasta el momento.
Hablo sobre la seguridad de la información abocado siempre a cisco y además entrego premios a asistentes a la exposición que respondieran preguntas relacionadas a la misma.

“REALIDAD AUMENTADA” dictada por el Sr. Tomas Mardones.



Presento y explico la realidad aumentada, para luego con ejemplos conocidos mostrar de una forma más grafica a que se refería con esto. Se refirió GLED, Empresa líder en la realidad aumentada, mostro las  últimas tecnologías en las que se está trabajando como lo son el reconocimiento de caras y lentes con cámaras y/o con sistemas computacionales integrados, además de presentar los avances que se esperan a futuro y los usos que se le esta dando a la realidad aumentada y los que se le podrían dar tanto en entretención, educación, salud, arquitectura y diseño, publicidad, etc.

“SEGURIDAD INFORMÁTICA” dictada por el Sr. Julio Valenzuela.



            Explicó detalladamente los principales ataques que sufren hoy en día las empresas y/o usuarios a su información, como lo son suplantación de identidad, DDOS, spyware, entre otras. Menciono en relación a este tema que el 70% de los ataques se producen al interior de la empresa por sus propios trabajadores. Y el otro 30% por agentes externos a esta como pueden ser Hackers.
            Para explicar como funcionan en general los Hackers utilizo un fragmento de la película “El Día de la Marmota”, con la que nos argumentaba la idea de que los hackers buscan un suceso que sea redundante y atacan en el momento de debilidad o distracción que posea este suceso. Además de entregar recomendaciones de seguridad como por ejemplo entrar a las paginas donde uno realiza transacciones bancarias o aquellas en las que se entrega información privada o de alto riesgo a una mala utilización por medio de protocolo “https” para que exista encriptación de los datos, entre otras, como cambiar constantemente las contraseñas y que estas mismas sean difíciles de descifrar, contando con mayúsculas, minúsculas y números, conformadas por mas de ocho caracteres.

            Exposiciones muy enriquecedoras y de gran aporte para las personas que estudiamos carreras relacionadas a la informática y telecomunicaciones, ya que nos permite estar actualizado en nuestros conocimientos sobre estos temas.

miércoles, 30 de noviembre de 2011

Sistemas de Tiempo compartido y Tiempo Real


         Los sistemas de tiempo compartido son una extensión lógica de la multiprogramación. La CPU corre todas las aplicaciones asignando tiempos para ejecutarse de forma alternada para cada una de ellas, esto permite a los usuarios compartir el computador y hace parecer que cada usuario tuviera uno propio ya que los procesos realizan rápidamente  su uso de CPU.
Hoy en día los ordenadores poseen sistemas por lotes y sistemas de tiempo compartido pero siempre en su diseño inicial se inclinan por uno de los dos.
Ya que en la multiprogramación hay que mantener los programas en la memoria principal en espera de su ejecución, en este sistema se deben intercambiar los trabajos entre la memoria principal y el disco duro, el cual sirve de respaldo a la memoria principal; por lo que además de poseer una planificación de memoria, tienen que tener una administración de disco.

          Los sistemas de tiempo real o SRT interactúan con una forma de realizar las acciones que es conocida en relación a sus entradas, salidas y restricciones de tiempo; para que su funcionamiento sea adecuado y este de acuerdo con los conceptos de predictibilidad, estabilidad, controlabilidad y alcanzabilidad.

Un SRT cumple tres condiciones:
  • Interactúa con el mundo real (proceso físico).
  • Emite respuestas correctas.
  • Cumple restricciones temporales.

          Estos sistemas están presentes todos los días en todas partes desde las centrales de energía eléctrica, controlando la generación, transmisión y distribución de esta; hasta las líneas de metro y aéreas, monitoreando el trafico de estas últimas. Además de asegurar la calidad de múltiples procesos industriales.

Los SRT se pueden clasificar en:

  • SRT por hard: garantizan la ejecución de tareas criticas de forma eficiente, almacenando los datos en la ROM y sin ocupar memoria virtual ni tiempo compartido, ya que ambas técnicas no son usadas por hardware.
 
  • SRT por soft: ejecutan las tareas menos criticas usando técnicas de prioridad para asignar las tareas. Su utilización es menor en comparación que por hard ya que por ejemplo no se pueden implementar en control industrial y/o robótica. Pero si para multimedia y realidad virtual.

martes, 29 de noviembre de 2011

Multiprogramacion

La Esencia de la multiprogramación propone que la CPU nunca se encuentra ociosa, es así como por ejemplo, si en su sistema se esta ejecutando un trabajo que estaba en cola, este tendrá que en algún momento pausar su ejecución por alguna razón(esperar que se introduzca un comando por teclado o algo por el estilo), la CPU seguirá activa siendo usada por el siguiente trabajo que esté listo para ejecutarse y así sucesivamente, y obviamente el trabajo inicial en algún momento retomara la CPU para continuar su ejecución.

                Para  poder llevar a cabo este complejo método de programación, es necesario una Planificación de CPU, con esto logramos que todos los programas que están listos para  ejecutarse sean conservados en la memoria  y se les pueda administrar la misma, además de elegir entre todos estos programas el que se va a ejecutar primero, cual después, el siguiente y así hasta el último.



                Existen dos formas de organizar las diferencias de  velocidades de ejecución entre la CPU y los dispositivos:

  •  Polling: La CPU está continuamente consultando a cada periférico si tiene algo que hace

  • Interrupciones: La CPU prioriza los procesos y cuando algún dispositivo necesita de la CPU, le     enviara una solicitud de interrupción, este procedimiento es inverso al Polling.

Tenemos Sistemas de Multiprogramación de Partición Fija, estos poseen espacios de almacenamiento fijo para los procesos que se encuentran en cola, por eso esos deben esperar que exista un bloque o mas de memoria con tamaño suficiente para ser atendido; en cambio en los Sistemas de Multiprogramación de Partición Variable, la memoria se divide en espacios variables de acuerdo a lo que exijan los procesos que sean almacenados en ella. 

miércoles, 12 de octubre de 2011

Monoprogramación

            En un sistema de monoprogramación todos los recursos del ordenador. CPU, memoria, E/S, etc. Se abocan a la ejecución de un solo programa a la vez. Esto conlleva a una baja utilización de los recursos, por ejemplo; Cuando el programa en ejecución realiza una operación de E/S se introduce la orden precisa en el registro de órdenes. El controlador responde a esto traduciendo esas órdenes al dispositivo, y poniendo a uno el bit de ocupación para indicar que el dispositivo está ocupado realizando una operación de E/S. Cuando termine la operación, el controlador pone a cero este bit para indicar que la operación concluyó, y el dispositivo está desocupado. Para saber cuándo termina la E/S, el programa, después de mandar la orden, tiene que ejecutar un ciclo del siguiente estilo:
-       Leer el registro de estado
-       Mientras (el bit de ocupación esté a uno)
-       Leer el registro de estado
-       Fin Mientras



Esto nos conlleva a que en un  momento dado la CPU este realizando una acción sin ocupar la E/S y esta ultima quede ociosa o bien la E/S este siendo ocupada y la CPU revisando la finalización de algún ciclo; cómo podemos ver en la imagen (grafico), donde los rectángulos rellenos a trazas representan el ciclo de comprobación. Para dar una medida de la infrautilización de los recursos que conlleva esta forma de realizar las E/S, piénsese que en el tiempo en que una impresora imprime una línea, la CPU, en lugar de ejecutar el ciclo de comprobación que aparece líneas más arriba, podría ejecutar millones de instrucciones de otro programa. A esta forma de realizar la E/S de los sistemas de monoprogramación se le llama E/S controlada por programa.
            
    Los sistemas monoprogramables se pueden dar de tres formas:

·         Sistemas monoprogramables lineales: se caracterizan por tener una cola de atención sin prioridades y un proceso no finaliza hasta terminar de ejecutarse.



·         Sistemas monoprogramables con prioridades: Tienen una cola de atención por prioridades y al igual que el anterior un proceso no termina hasta finalizar su ejecución.



·         Sistemas monoprogramables con prioridades y tiempo de salida: Tienen una cola de atención por prioridades y un proceso puede terminar al completar su ejecución o al terminar el intervalo de tiempo de atención prefijado, en este caso se devolverá a la cola de atención.

      

jueves, 29 de septiembre de 2011

Sistemas de Procesamiento por Lotes (Batch)

            Antes de entender y diferenciar a la multiprogramación y el tiempo compartido debemos comprender lo que se refiere a Sistemas Batch. En sus inicios (1956) estos sistemas aparecieron para aumentar la capacidad de proceso de los programas; estaban caracterizados por agrupar en lotes trabajos similares, como trabajaban con tarjetas perforadas y cintas, solo permitían el acceso secuencial a los datos, permitiendo que se usara un solo paquete de aplicación a la vez; luego con la aparición del almacenamiento en línea en disco, fue posible acceder a todo el paquete de aplicación inmediatamente. Hoy en día los trabajos por lotes son muy utilizados para realizar tareas repetitivas sobre grandes conjuntos de información en supercomputadoras, donde si estos trabajos se realizaran manualmente estarían más proclives a sufrir errores o sería muy tedioso llevarlos a cabo. A modo de ejemplo tenemos el renderizado de los fotogramas de una película.
            Una de las características más importantes de estos sistemas es que son no-interactivos, es decir, que la ejecución de un programa no es supervisada directamente por el usuario. El usuario da las órdenes mediante algún dispositivo de entrada, el programa se ejecuta, y luego entrega la información mediante algún dispositivo de salida; sin que el usuario intervenga ni pueda detener la ejecución si es que se percato de un error, sino que deberá esperar a que finalice el o los procesos y realizar todo de nuevo.
Si el sistema está bien planificado, se alcanzan tiempos de ejecución muy altos, ya que los recursos disponibles están siendo utilizados casi continuamente. Además, el Sistema Operativo puede ser muy simple ya que las tareas son completamente secuenciales por lo que se reduce la necesitad de utilizar esquemas Round Robin o similares.

Ventajas.

Al no competir por los recursos de forma inmediata, permite que varios usuarios los compartan de mejor forma en un ordenador, además los trabajos son realizados en los momentos en que los recursos del ordenador están menos ocupados y  a la vez evita desaprovecharlos sin necesidad de interacción y/o supervisión humana. También permite amortiguar mejor los altos costos de compra de supercomputadoras, manteniendo altos índices de utilización.

Desventajas.

A diferencia de los sistemas interactivos, en los sistemas Batch debe conocerse y planificarse cuidadosamente la tarea a realizar, por lo que si no se hace esto de forma eficaz y eficiente cualquier error puede arrojar resultados inútiles o inexistentes.
Los sistemas de procesamiento por lotes se dividen en monoprogramables y Multiprogramables los cuales detallaremos en los temas que vendrán después…


miércoles, 14 de septiembre de 2011

Generaciones de los Computadores


Introducción.

Primero que todo hay que saber el significado de computador u ordenador, podemos definir lo como un dispositivo o aparato electrónico que puede recibir instrucciones y ejecutarlas realizando cálculos, compilaciones y correlacionando otros tipos de información, también es importante saber lo que es un programa, este se puede definir como un conjunto de instrucciones para que la maquina efectué alguna tarea, y que el lenguaje mas simple en el que puede especificarse un programa se llama lenguaje de maquina (escrito en código binario).



Primera Generación (1951-1958).
     
Las máquinas de esta época tenían dos grandes características:
  • Estaban construidas en base a electrónica de válvulas.
  • Se programaban en lenguaje de máquina.
Bueno además de estas dos, existen algunas otras características que vale la pena mencionar tales como; 

  • Estaban constituidas en base a tubos de vacío desprendían bastante calor, por lo que requerían sistemas de ventilación y tenían una vida relativamente corta, ademas, tenían un alto consumo de energía,ya que, su voltaje era de 300 volts y la posibilidad de fundirse era alta.
  • Se usaba como medio de almacenamiento un tambor magnético interior.
  • Uso de tarjetas perforadas para suministrar datos de programas.
  • Alto costo y de gran tamaño, por lo que muy pocos podían tener acceso a estas maquinas.
     Computadores mas relevantes de esta generación.
  • 1947 ENIAC. Primera computadora digital electrónica de la historia.
  • 1949 EDVAC. Primera computadora programable.
  • 1951 UNIVAC I. Primera computadora comercial.
  • 1953 IBM 701. Para introducir los datos (tarjetas perforadas)
  • 1954 IBM. Continúo con otros modelos (tambor magnético).


Segunda Generación (1959-1964).
  • Esta generación está marcada por la aparición de los transistores los cuales vienen a remplazar a los bulbos, estos reducían considerablemente el tamaño y el consumo de energía de las maquinas.
  • El lenguaje de maquina también mejora siendo remplazado por el lenguaje de alto nivel o lenguaje de programación. En cuanto a medios de almacenamiento aparecen las redes de núcleos magnéticos.
  • Algunas de estas computadoras se programaban con tarjetas perforadas y otas por medio de un cableado en un tablero.
  • Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas.
  • Las impresoras aumentan su capacidad de trabajo.
     Computadores más relevantes de esta generación.

  • La philco 212. 
  • La UNIVAC M460. 
  • La Control Data Corporations 1604.
  • La Control Data Corporations 3000.
  • La IBM 7090. 
  • La NCR 315.


Tercera Generación (1964-1971).

La principal característica de esta generación es evolución de la electrónica para crear estas máquinas lo cual se realiza usando circuitos integradosdesarrollados en 1958 por Jac      k Kilbry, los que consisten en encapsular componentes electrónicos en una pastilla de silicio, con esto se redujo nuevamente el tamaño de las computadoras y obviamente su consumo de energía y costo. Además en esta generación apare el primer sistema operativo el OS 360 para la serie 360 de IBM; esta serie utilizaba técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. Se dice que esta serie de computadoras y específicamente la IBM 360 marco el paso a esta generación.
Otro dato importante sobre 360 es que fue la primera computadora en ser atacada con un          virus en la historia de la informática; y ese primer virus que atacó a esta máquina, fue el Creeper, creado en 1972.
Tenemos también las minicomputadoras de Digital EquipmentCorporation, como lo son la PDP 8 y la PDP 11. La que más cabe destacar es la PDP 11, esta computadora fue la primera minicomputadora en interconectar todos los elementos del sistema — procesador, memoria y periférico — a un único bus de comunicación, bidireccional, asíncrono. Este dispositivo, llamado UNIBUS permitía a los dispositivos enviar, recibir o intercambiar datos sin necesidad de dar un paso intermedio por la memoria. Además fue una de las primeras computadoras en las que corrió el sistema Unix, desarrollado en los Laboratorios Bell.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.
En los años 70, la IBM produce la seria 370. Y posteriormente surge más modelos y el mercado crece con gran rapidez.

Otras características relevantes son:
·         Aumento de fiabilidad y flexibilidad.
·         Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta.
·         Generalización de lenguas de programación de alto nivel.
·         Compatibilidad para compartir software entre diversos equipos.
·         Teleproceso.
·         Multiprogramación.
·         Tiempo Compartido.
·         Renovación de periféricos.
·         Minicomputadoras PDP 8 y PDP 11.



Cuarta Generación (Década de los 70s).
               
La tecnología que marca el avance a la cuarta generación son los microprocesadores (circuitos integrados de alta densidad y con una velocidad impresionante), esto significo la reducción de tamaño y costo de las microcomputadoras, conllevando así a la aparición de las computadoras personales las cuales han influido de manera importante en la sociedad.
                En 1976 Steve Woziniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde formaron la compañía APPLE.
                En cuanto a los medios de almacenamiento vuelven a evolucionar sucediendoel reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio.

Otras características relevantes son:
  • Microprocesador: desarrollo por Intel Corporation a solicitud de una empresa japonesa (1971).
  • Sistemas de tratamiento de base de datos.
  • Generalización de las aplicaciones.
  • Multiproceso.

Quinta Generación (Desde 1980 hasta hoy)
               
Uno de los hechos más importantes de esta generación es lo que se pretende alcanzar con la Inteligencia Artificial, los cuales son sistemas que pueden aprender a partir de la experiencia y que son capaces de aplicar esta información en situaciones nuevas. Algunas de estas aplicaciones se pueden encontrar en:

  • Traductores de lenguajes
  • Robots con capacidad de movimiento
  • Juegos
  • Reconocimientos de formas tridimensionales
  • Entendimiento de relatos no triviales
Otra características no menos importantes  de esta generación son:

  • Aumento de la capacidad de procesamiento
  • Disminuye  significativamente el  tamaño y costo de las maquinas.
  • Surge la competencia entre compañías de computadores
  • Procesamiento en paralelo
  • Circuitos de alta velocidad.




¿Hasta qué punto podrán seguir evolucionando estas máquinas y tecnologías? ¿En algún momento podrán llegar a controlar al ser humano, como en la película de ciencia-ficción "Yo Robot" del director Alex Proya, ó siempre existirá un margen de control que ellas no podrán cruzar?