viernes, 11 de junio de 2010
lunes, 10 de mayo de 2010
Inteligencia Artificial
Introducción
El tema a continuación es la inteligencia artificial que es considerada como una de las ramas de la computación que contribuye a un mejor entendimiento del conocimiento humano.
Aquí podremos ver como se relaciona el hombre y las computadoras, como está formada la inteligencia artificial, como surge y sus distintos funcionamientos.
2
Inteligencia Artificial
Concepto
Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.
Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.
Existen distintos tipos de conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.
También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:
• Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).
• Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
• Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
• Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
• Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.
3
Escuelas de pensamiento
La IA se divide en dos escuelas de pensamiento:
• La inteligencia artificial convencional
• La inteligencia computacional
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
• Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y apartes que son muy importantes requieren de un buen funcionamiento.
• Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.
• Redes bayesianas: Propone soluciones mediante inferencia estadística.
• Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden auto-regularse y controlarse para mejorar.
• Smart process management: facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad.
Inteligencia artificial computacional
La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.
4
Historia
• Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ktesibios de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin razonamiento).
• En 1315 Ramón Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial.
• En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.
• En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.
• En 1955 Herbert Simón, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.
• En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
• En 1957 Newell y Simón continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas.
• En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT), el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico.
• En 1959 Rosenblatt introduce el Perceptrón.
• A fines de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación.
• En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.
• En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT.
• Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.
• A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas.
• En 1968 Minsky publica Semantic Information Processing.
• En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig, desarrollan el lenguaje de programación LOGO.
• En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980.
• En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA.
• En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general.
• En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.
• En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (shells) como EMYCIN, EXPERT, OPSS.
• En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras.
• En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales).
• En 1988 se establecen los lenguajes Orientados a Objetos.
• En 1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue.
• En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia 2006.
• En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas.
• Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas».
• Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro».
5
Fundamentos y filosofía
Como ocurre casi siempre en el caso de una ciencia recién creada, la inteligencia artificial aborda tantas cuestiones confundibles en un nivel fundamental y conceptual que, adjunto a lo científico, es necesario hacer consideraciones desde el punto de vista de la filosofía. Gran parte de esta ciencia se junta con temas en la filosofía de la mente, pero hay ciertos temas particulares a la IA. Por ejemplo:
• ¿En qué consiste la inteligencia? ¿Cómo la reconoceríamos en un objeto no humano, si la tuviera?
• ¿Qué sustancia y organización se requiere? ¿Es posible que una criatura hecha de metal, por ejemplo, posea una inteligencia comparable a la humana?
• Aunque una criatura no orgánica pudiera solucionar problemas de la misma manera que un humano, ¿tendría o podría tener conciencia y emociones?
• Suponiendo que podemos hacer robots con una inteligencia comparable a la nuestra, ¿debemos hacerlo?
Durante más de 2000 años de tradición en filosofía, han ido surgiendo diversas teorías del razonamiento y del aprendizaje, simultáneamente con el punto de vista de que la mente se reduce al funcionamiento físico. La psicología ofrece herramientas que permiten la investigación de la mente humana, así como un lenguaje científico para expresar las teorías que se van obteniendo. La lingüística ofrece teorías para la estructura y significado del lenguaje, así como la ciencia de la computación, de la que se toman las herramientas que permiten que la Inteligencia Artificial sea una realidad.
Empezó con el nacimiento de Platón en 428 a. C. y con lo que aprendió de Sócrates. La temática de su obra fue muy diversa: política, matemática, física, astronomía y diversas ramas de la filosofía. El filósofo Hubet Dreyfus (1979) afirma que:
Bien podría afirmarse que la historia de la inteligencia artificial comienza en el año 450 a.C., cuando Platón cita un diálogo en el que Sócrates le pregunta a Eutidemo: «Desearía saber cuál es la característica de la piedad que hace que una acción se pueda considerar como pía... y así la observe y me sirva de norma para juzgar tus acciones y las de otros.»
Los filósofos delimitaron las más importantes ideas relacionadas con la inteligencia artificial, pero para pasar de allí a una ciencia formal era necesario contar con una formalización matemática en tres áreas principales: la computación, la lógica y la probabilidad. La idea de expresar un cálculo mediante un algoritmo formal se remonta a la época de Jwarizmi, matemático árabe del siglo IX, con cuyas obras se introdujeron en Europa los números arábigos y el álgebra (de su nombre al-Jwarizmi deriva la palabra algoritmo).
El hombre se ha aplicado a sí mismo el nombre científico de Homo sapiens como una valoración de la trascendencia de nuestras habilidades mentales tanto para nuestra vida cotidiana como para nuestro propio sentido de identidad. Los esfuerzos del campo de la inteligencia artificial se enfocan en lograr la compresión de entidades inteligentes. Una de las razones de su estudio es el aprender más de nosotros mismos. A diferencia de la filosofía y de la psicología, que también se ocupan de la inteligencia, los esfuerzos de la inteligencia artificial están encaminados tanto a la construcción de entidades como a su compresión. Otra razón por la cual se estudia la inteligencia artificial es debido a que ha sido posible crear sorprendentes y diversos productos de trascendencia. Nadie podría pronosticar con toda precisión lo que se podría esperar en el futuro, es evidente que las computadoras que posean una inteligencia a nivel humano tendrán repercusiones muy importantes en nuestra vida diaria así como en el devenir de la civilización.
El problema que aborda la inteligencia artificial es uno de los más complejos: ¿Cómo es posible que un diminuto y lento cerebro, sea biológico o electrónico, tenga capacidad de percibir, comprender, predecir y manipular un mundo que en tamaño y complejidad lo excede con creces?, pero a diferencia de la investigación en torno al desplazamiento mayor que la velocidad de la luz o de un dispositivo antigravitatorio, el investigador del campo de la inteligencia artificial cuenta con pruebas contundentes de que tal búsqueda es totalmente factible.
La inteligencia artificial permite al hombre emular en las máquinas el comportamiento humano, tomando como base el cerebro y su funcionamiento, de manera tal que se pueda alcanzar cierto razonamiento creando marionetas robóticas.
6
La inteligencia artificial y los sentimientos
El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente.
A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor.
En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de tomar decisiones «acertadas».
Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes.
Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo qué hacer a continuación [Pinker, 2001, p. 481].
Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo.
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables.
Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de propiocepción, intercepción, nocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en cibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do... for, o la cantidad de memoria disponible para una operación determinada.
A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación de metas o motivación, junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos.
En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son hasta cierto punto complementarios.
Críticas
Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución.
En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas.
Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina.
Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas a priori.
Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza.
Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.
Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).
Tecnologías de apoyo
• Interfaces de usuario
• Visión artificial
• Smart process management
Aplicaciones de la inteligencia artificial
• Lingüística computacional
• Minería de datos (Data Mining)
• Industriales.
• Médicas
• Mundos virtuales
• Procesamiento de lenguaje natural (Natural Language Processing)
• Robótica
• Sistemas de apoyo a la decisión
• Videojuegos
• Prototipos informáticos
• Análisis de sistemas dinámicos.
• Smart process management
Científicos en el campo de la inteligencia artificial
• Jeff Hawkins
• John McCarthy
• Marvin Minsky
• Judea Pearl
• Alan Turing, discípulo de John Von Neumann, diseñó el Test de Turing que debería utilizarse para comprender si una máquina lógica es inteligente o no.
• Joseph Weizenbaum
• Raúl Rojas
• Ray Kurzweil
Commons
Conclusiones
La inteligencia artificial constituye una rama de la informática que, en los últimos tiempos, está adquiriendo creciente importancia. Su campo de estudio lo constituyen los procedimientos necesarios para elaborar sistemas entre cuyas prestaciones figuren las que, tradicionalmente, se han considerado privativas de la inteligencia humana.
Según Stubblefied 1993 la Inteligencia Artificial es la rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente.
Sugerencias
• Revisar y corregir el sistema para adecuarlo y aplicarlo en la Institución con la mayor brevedad posible, a fin de solventar cuanto antes la situación que confronta en la actualidad la población estudiantil de la UNEXPO.
• Promover el establecimiento de cursos orientados a lograr una mayor capacitación del personal, con el objeto de mantenerlo actualizado de manera tal que puedan solventar cualquier emergencia que se presente con el sistema para alcanzar niveles de excelencia.
• Lograr implantar redes de comunicación con otras Universidades a nivel nacional e internacional.
El tema a continuación es la inteligencia artificial que es considerada como una de las ramas de la computación que contribuye a un mejor entendimiento del conocimiento humano.
Aquí podremos ver como se relaciona el hombre y las computadoras, como está formada la inteligencia artificial, como surge y sus distintos funcionamientos.
2
Inteligencia Artificial
Concepto
Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.
Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.
Existen distintos tipos de conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.
También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:
• Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).
• Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
• Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
• Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
• Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.
3
Escuelas de pensamiento
La IA se divide en dos escuelas de pensamiento:
• La inteligencia artificial convencional
• La inteligencia computacional
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
• Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y apartes que son muy importantes requieren de un buen funcionamiento.
• Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.
• Redes bayesianas: Propone soluciones mediante inferencia estadística.
• Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden auto-regularse y controlarse para mejorar.
• Smart process management: facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad.
Inteligencia artificial computacional
La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.
4
Historia
• Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ktesibios de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin razonamiento).
• En 1315 Ramón Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial.
• En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.
• En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.
• En 1955 Herbert Simón, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.
• En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
• En 1957 Newell y Simón continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas.
• En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT), el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico.
• En 1959 Rosenblatt introduce el Perceptrón.
• A fines de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación.
• En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.
• En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT.
• Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.
• A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas.
• En 1968 Minsky publica Semantic Information Processing.
• En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig, desarrollan el lenguaje de programación LOGO.
• En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980.
• En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA.
• En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general.
• En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.
• En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (shells) como EMYCIN, EXPERT, OPSS.
• En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras.
• En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales).
• En 1988 se establecen los lenguajes Orientados a Objetos.
• En 1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue.
• En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia 2006.
• En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas.
• Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas».
• Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro».
5
Fundamentos y filosofía
Como ocurre casi siempre en el caso de una ciencia recién creada, la inteligencia artificial aborda tantas cuestiones confundibles en un nivel fundamental y conceptual que, adjunto a lo científico, es necesario hacer consideraciones desde el punto de vista de la filosofía. Gran parte de esta ciencia se junta con temas en la filosofía de la mente, pero hay ciertos temas particulares a la IA. Por ejemplo:
• ¿En qué consiste la inteligencia? ¿Cómo la reconoceríamos en un objeto no humano, si la tuviera?
• ¿Qué sustancia y organización se requiere? ¿Es posible que una criatura hecha de metal, por ejemplo, posea una inteligencia comparable a la humana?
• Aunque una criatura no orgánica pudiera solucionar problemas de la misma manera que un humano, ¿tendría o podría tener conciencia y emociones?
• Suponiendo que podemos hacer robots con una inteligencia comparable a la nuestra, ¿debemos hacerlo?
Durante más de 2000 años de tradición en filosofía, han ido surgiendo diversas teorías del razonamiento y del aprendizaje, simultáneamente con el punto de vista de que la mente se reduce al funcionamiento físico. La psicología ofrece herramientas que permiten la investigación de la mente humana, así como un lenguaje científico para expresar las teorías que se van obteniendo. La lingüística ofrece teorías para la estructura y significado del lenguaje, así como la ciencia de la computación, de la que se toman las herramientas que permiten que la Inteligencia Artificial sea una realidad.
Empezó con el nacimiento de Platón en 428 a. C. y con lo que aprendió de Sócrates. La temática de su obra fue muy diversa: política, matemática, física, astronomía y diversas ramas de la filosofía. El filósofo Hubet Dreyfus (1979) afirma que:
Bien podría afirmarse que la historia de la inteligencia artificial comienza en el año 450 a.C., cuando Platón cita un diálogo en el que Sócrates le pregunta a Eutidemo: «Desearía saber cuál es la característica de la piedad que hace que una acción se pueda considerar como pía... y así la observe y me sirva de norma para juzgar tus acciones y las de otros.»
Los filósofos delimitaron las más importantes ideas relacionadas con la inteligencia artificial, pero para pasar de allí a una ciencia formal era necesario contar con una formalización matemática en tres áreas principales: la computación, la lógica y la probabilidad. La idea de expresar un cálculo mediante un algoritmo formal se remonta a la época de Jwarizmi, matemático árabe del siglo IX, con cuyas obras se introdujeron en Europa los números arábigos y el álgebra (de su nombre al-Jwarizmi deriva la palabra algoritmo).
El hombre se ha aplicado a sí mismo el nombre científico de Homo sapiens como una valoración de la trascendencia de nuestras habilidades mentales tanto para nuestra vida cotidiana como para nuestro propio sentido de identidad. Los esfuerzos del campo de la inteligencia artificial se enfocan en lograr la compresión de entidades inteligentes. Una de las razones de su estudio es el aprender más de nosotros mismos. A diferencia de la filosofía y de la psicología, que también se ocupan de la inteligencia, los esfuerzos de la inteligencia artificial están encaminados tanto a la construcción de entidades como a su compresión. Otra razón por la cual se estudia la inteligencia artificial es debido a que ha sido posible crear sorprendentes y diversos productos de trascendencia. Nadie podría pronosticar con toda precisión lo que se podría esperar en el futuro, es evidente que las computadoras que posean una inteligencia a nivel humano tendrán repercusiones muy importantes en nuestra vida diaria así como en el devenir de la civilización.
El problema que aborda la inteligencia artificial es uno de los más complejos: ¿Cómo es posible que un diminuto y lento cerebro, sea biológico o electrónico, tenga capacidad de percibir, comprender, predecir y manipular un mundo que en tamaño y complejidad lo excede con creces?, pero a diferencia de la investigación en torno al desplazamiento mayor que la velocidad de la luz o de un dispositivo antigravitatorio, el investigador del campo de la inteligencia artificial cuenta con pruebas contundentes de que tal búsqueda es totalmente factible.
La inteligencia artificial permite al hombre emular en las máquinas el comportamiento humano, tomando como base el cerebro y su funcionamiento, de manera tal que se pueda alcanzar cierto razonamiento creando marionetas robóticas.
6
La inteligencia artificial y los sentimientos
El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente.
A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas inteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor.
En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de tomar decisiones «acertadas».
Aunque, por el momento, la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes.
Particularmente para los robots móviles, es necesario que cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo qué hacer a continuación [Pinker, 2001, p. 481].
Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel esté demasiado bajo.
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables.
Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de propiocepción, intercepción, nocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en cibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do... for, o la cantidad de memoria disponible para una operación determinada.
A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación de metas o motivación, junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos.
En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son hasta cierto punto complementarios.
Críticas
Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución.
En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas.
Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina.
Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas a priori.
Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza.
Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.
Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).
Tecnologías de apoyo
• Interfaces de usuario
• Visión artificial
• Smart process management
Aplicaciones de la inteligencia artificial
• Lingüística computacional
• Minería de datos (Data Mining)
• Industriales.
• Médicas
• Mundos virtuales
• Procesamiento de lenguaje natural (Natural Language Processing)
• Robótica
• Sistemas de apoyo a la decisión
• Videojuegos
• Prototipos informáticos
• Análisis de sistemas dinámicos.
• Smart process management
Científicos en el campo de la inteligencia artificial
• Jeff Hawkins
• John McCarthy
• Marvin Minsky
• Judea Pearl
• Alan Turing, discípulo de John Von Neumann, diseñó el Test de Turing que debería utilizarse para comprender si una máquina lógica es inteligente o no.
• Joseph Weizenbaum
• Raúl Rojas
• Ray Kurzweil
Commons
Conclusiones
La inteligencia artificial constituye una rama de la informática que, en los últimos tiempos, está adquiriendo creciente importancia. Su campo de estudio lo constituyen los procedimientos necesarios para elaborar sistemas entre cuyas prestaciones figuren las que, tradicionalmente, se han considerado privativas de la inteligencia humana.
Según Stubblefied 1993 la Inteligencia Artificial es la rama de la ciencia de la computación que se ocupa de la automatización de la conducta inteligente.
Sugerencias
• Revisar y corregir el sistema para adecuarlo y aplicarlo en la Institución con la mayor brevedad posible, a fin de solventar cuanto antes la situación que confronta en la actualidad la población estudiantil de la UNEXPO.
• Promover el establecimiento de cursos orientados a lograr una mayor capacitación del personal, con el objeto de mantenerlo actualizado de manera tal que puedan solventar cualquier emergencia que se presente con el sistema para alcanzar niveles de excelencia.
• Lograr implantar redes de comunicación con otras Universidades a nivel nacional e internacional.
jueves, 6 de mayo de 2010
miércoles, 28 de abril de 2010
Historia y Evolución de los Sistemas Operativos
Introducción
Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan. La primera computadora digital real fue diseñada por el matemático ingles Charles Babbage (1792 - 1871). Aunque Babbage gasto la mayor parte de su vida y de su fortuna intentando construir su “ maquina analítica “ , nunca la hizo funcionar adecuadamente porque era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, el engranaje, levas y otras partes mecánicas con la alta precisión que el necesitaba. Sin tener que decirlo, la maquina analítica no tuvo un sistema operativo.
2
Definición de sistema Operativo
El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.
Clasificación de los Sistemas OperativosLos sistemas operativos pueden ser clasificados de la siguiente forma: o Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo. o Multiprocesador: soporta el abrir un mismo programa en más de una CPU. o Multitarea: Permite que varios programas se ejecuten al mismo tiempo. o Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo. o Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y UNIX, no funcionan en tiempo real.
Historia de los Sistemas OperativosAños 40A finales de los años 40, con lo que podríamos llamar la aparición de la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora (en realidad al existir tan pocas computadoras todos podrían considerarse prototipos y cada constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no existían los sistemas operativos, y los programadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable.Años 50A principios de los años 50 con el objeto de facilitar la interacción entre persona y computador, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal.Monitor residente 3Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente.Procesamiento por lotesComo solución para optimizar, en un mismo núcleo de cinta o conjunto de tarjetas se montaban los programas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.Almacenamiento temporalSu objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling.Años 60En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas:MultiprogramaciónEn un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.Tiempo compartidoEn este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación.
4
Tiempo realEstos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para
resolver el problema o hecho planteado. El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.MultiprocesadorPermite trabajar con máquinas que poseen más de un microprocesador. En un multiprocesadorSe denomina multiprocesador a un ordenador que cuenta con dos o más microprocesadores (CPUs).Gracias a esto, el multiprocesador puede ejecutar simultáneamente varios hilos pertenecientes a un mismo proceso o bien a procesos diferentes.Los ordenadores multiprocesadores presentan problemas de diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas:La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los procesadores comparten toda la memoria. Esta última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su propia memoria cache local. De manera que cuando un microprocesador escribe en una dirección de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia obsoleta del dato almacenado.Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad.
Años 70Debido al avance de la electrónica, pudo empezar a crearse circuitos con miles de transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después, a producir los primeros sistemas integrados. Ésta década se podría definir como la de los sistemas de propósito general y en ella se desarrollan tecnologías que se siguen utilizando en la actualidad.
5
Es en los años 70 cuando se produce el boom de los miniordenadores y la informática se acerca al nivel de usuario. En lo relativo a lenguajes de programación, es de señalar la aparición de Pascal y C, el último de los cuales se creó específicamente para reescribir por completo el código del sistema operativo Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk.Sistemas operativos desarrollados· MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180. Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas multiprocesador.· MVS (Multiple Virtual Storage): Fue el sistema operativo más usado en los modelos de mainframes -ordenadores grandes, potentes y caros usados principalmente por grandes compañías para el procesamiento de grandes cantidades de datos- System/370 y System/390 de IBM, desarrollado también por IBM y lanzado al mercado por primera vez en 1974. Como características destacables, permitía la ejecución de múltiples tareas, además de que introdujo el concepto de memoria virtual y finalmente añadió la capacidad de que cada programa tuviera su propio espacio de direccionamiento de memoria, de ahí su nombre. · CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976, distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las computadoras personales de esta década. Su éxito se debió a que era portátil, permitiendo que diferentes programas interactuasen con el hardware de una manera estandarizada. Estaba compuesto de dos subsistemas: o CCP (Comand Control Processor): Intérprete de comandos que permitía introducir los mandatos con sus parámetros separados por espacios. Además, los traducía a instrucciones de alto nivel destinadas a BDOS. o BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS. El hecho de que, años después, IBM eligiera para sus PC a MS-DOS supuso su mayor fracaso, por lo que acabó desapareciendo.
6
Años 80Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de la programación declarativa. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS(Micro Soft Disk Operating), escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 8000.
Apple MacintoshEl lanzamiento oficial se produjo en enero de 1984, al precio de 2495 dólares. Muchos usuarios, al ver que estaba completamente diseñado para funcionar a través de una GUI (Graphic User Interface), acostumbrados a la línea de comandos, lo tacharon de juguete. A pesar de todo, el Mac se situó a la cabeza en el mundo de la edición a nivel gráfico.MS-DOSEn 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (MicroSoft Disk Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, a partir de la cual MS-DOS dejó de existir como tal y se convirtió en una parte integrada del sistema operativo Windows.Años 90
7
GNU/LinuxLa idea de un Sistema Operativo Libre para la humanidad nace en 1984, impulsada por Richard Stallman, ex-empleado del MIT. Motivado por esta idea comienza la construcción y desarrollo de las herramientas elementales que componen a un Sistema Operativo, a esta parte del desarrollo del Sistema Operativo se le conoce como proyecto GNU. En esta etapa Richard Stallman cuenta con la colaboración de miles de programadores a nivel mundial. En 1991 aparece la primera versión del núcleo de Linux. Creado por Linus Torvalds, pero antes de que este apareciera ya existía la mayoría de las herramientas que componían al SO, pero aun así el Kernel Linux tiene una importancia fundamental para el proyecto, es tal la importancia del este que el proyecto termina llamándose GNU/Linux, dando un 50% de importancia a ambas partes.Este sistema es similar a Unix, basado en el estándar POSIX , un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl. Lo que permite utilizar Linux de una forma visual atractiva.
Microsoft WindowsA mediados de los años 80 se crea este sistema operativo, pero no es hasta la salida de Windows 95 que se le puede considerar un sistema operativo, solo era una interfaz gráfica del MS-DOS. Hoy en día es el sistema operativo más difundido en el ámbito doméstico aunque también hay versiones para servidores como Windows NT. Microsoft ha diseñado también algunas versiones para superordenadores, pero sin mucho éxito. Años después se hizo el Windows 98 que era el más eficaz de esa época Después se crearía el sistema operativo de Windows ME (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo de Windows 2000 en ese mismo año. Después le seguiría el sistema operativo más utilizado en la actualidad, Windows XP y otros sistemas operativos de esta familia especializados en las empresas. Ahora el más reciente es Windows Vista que, actualmente, tiene muchas críticas. Ahora está en desarrollo el sistema operativo Windows 7, que será una especie de "actualización" a Windows Vista, sacando novedades y mejorando problemas de incompatibilidad, rendimiento y más...
8
conclusiones
Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan.
Sin el sistema operativo nada funcionaria... por lo tanto no cabe mucho mas que acotar. Solo es de esperarse que la evolución se mantenga y quizás avizorar mas alternativas a nuestro nunca tan bien ponderado y muchas veces vilipendiado “Windows”.
Web grafía
http://es.wikipedia.org/wiki/Historia_de_los_sistemas_operativos·
http://www.todobytes.net/Articulos/Historia_SO/historia_so.html· http://www.torrealday.com.ar/articulos/articulo005.htm
Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan. La primera computadora digital real fue diseñada por el matemático ingles Charles Babbage (1792 - 1871). Aunque Babbage gasto la mayor parte de su vida y de su fortuna intentando construir su “ maquina analítica “ , nunca la hizo funcionar adecuadamente porque era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, el engranaje, levas y otras partes mecánicas con la alta precisión que el necesitaba. Sin tener que decirlo, la maquina analítica no tuvo un sistema operativo.
2
Definición de sistema Operativo
El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.
Clasificación de los Sistemas OperativosLos sistemas operativos pueden ser clasificados de la siguiente forma: o Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo. o Multiprocesador: soporta el abrir un mismo programa en más de una CPU. o Multitarea: Permite que varios programas se ejecuten al mismo tiempo. o Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo. o Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y UNIX, no funcionan en tiempo real.
Historia de los Sistemas OperativosAños 40A finales de los años 40, con lo que podríamos llamar la aparición de la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora (en realidad al existir tan pocas computadoras todos podrían considerarse prototipos y cada constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no existían los sistemas operativos, y los programadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable.Años 50A principios de los años 50 con el objeto de facilitar la interacción entre persona y computador, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal.Monitor residente 3Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente.Procesamiento por lotesComo solución para optimizar, en un mismo núcleo de cinta o conjunto de tarjetas se montaban los programas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.Almacenamiento temporalSu objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling.Años 60En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas:MultiprogramaciónEn un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.Tiempo compartidoEn este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación.
4
Tiempo realEstos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para
resolver el problema o hecho planteado. El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.MultiprocesadorPermite trabajar con máquinas que poseen más de un microprocesador. En un multiprocesadorSe denomina multiprocesador a un ordenador que cuenta con dos o más microprocesadores (CPUs).Gracias a esto, el multiprocesador puede ejecutar simultáneamente varios hilos pertenecientes a un mismo proceso o bien a procesos diferentes.Los ordenadores multiprocesadores presentan problemas de diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas:La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los procesadores comparten toda la memoria. Esta última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su propia memoria cache local. De manera que cuando un microprocesador escribe en una dirección de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia obsoleta del dato almacenado.Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad.
Años 70Debido al avance de la electrónica, pudo empezar a crearse circuitos con miles de transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después, a producir los primeros sistemas integrados. Ésta década se podría definir como la de los sistemas de propósito general y en ella se desarrollan tecnologías que se siguen utilizando en la actualidad.
5
Es en los años 70 cuando se produce el boom de los miniordenadores y la informática se acerca al nivel de usuario. En lo relativo a lenguajes de programación, es de señalar la aparición de Pascal y C, el último de los cuales se creó específicamente para reescribir por completo el código del sistema operativo Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk.Sistemas operativos desarrollados· MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180. Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas multiprocesador.· MVS (Multiple Virtual Storage): Fue el sistema operativo más usado en los modelos de mainframes -ordenadores grandes, potentes y caros usados principalmente por grandes compañías para el procesamiento de grandes cantidades de datos- System/370 y System/390 de IBM, desarrollado también por IBM y lanzado al mercado por primera vez en 1974. Como características destacables, permitía la ejecución de múltiples tareas, además de que introdujo el concepto de memoria virtual y finalmente añadió la capacidad de que cada programa tuviera su propio espacio de direccionamiento de memoria, de ahí su nombre. · CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976, distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las computadoras personales de esta década. Su éxito se debió a que era portátil, permitiendo que diferentes programas interactuasen con el hardware de una manera estandarizada. Estaba compuesto de dos subsistemas: o CCP (Comand Control Processor): Intérprete de comandos que permitía introducir los mandatos con sus parámetros separados por espacios. Además, los traducía a instrucciones de alto nivel destinadas a BDOS. o BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS. El hecho de que, años después, IBM eligiera para sus PC a MS-DOS supuso su mayor fracaso, por lo que acabó desapareciendo.
6
Años 80Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de la programación declarativa. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS(Micro Soft Disk Operating), escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 8000.
Apple MacintoshEl lanzamiento oficial se produjo en enero de 1984, al precio de 2495 dólares. Muchos usuarios, al ver que estaba completamente diseñado para funcionar a través de una GUI (Graphic User Interface), acostumbrados a la línea de comandos, lo tacharon de juguete. A pesar de todo, el Mac se situó a la cabeza en el mundo de la edición a nivel gráfico.MS-DOSEn 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (MicroSoft Disk Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, a partir de la cual MS-DOS dejó de existir como tal y se convirtió en una parte integrada del sistema operativo Windows.Años 90
7
GNU/LinuxLa idea de un Sistema Operativo Libre para la humanidad nace en 1984, impulsada por Richard Stallman, ex-empleado del MIT. Motivado por esta idea comienza la construcción y desarrollo de las herramientas elementales que componen a un Sistema Operativo, a esta parte del desarrollo del Sistema Operativo se le conoce como proyecto GNU. En esta etapa Richard Stallman cuenta con la colaboración de miles de programadores a nivel mundial. En 1991 aparece la primera versión del núcleo de Linux. Creado por Linus Torvalds, pero antes de que este apareciera ya existía la mayoría de las herramientas que componían al SO, pero aun así el Kernel Linux tiene una importancia fundamental para el proyecto, es tal la importancia del este que el proyecto termina llamándose GNU/Linux, dando un 50% de importancia a ambas partes.Este sistema es similar a Unix, basado en el estándar POSIX , un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl. Lo que permite utilizar Linux de una forma visual atractiva.
Microsoft WindowsA mediados de los años 80 se crea este sistema operativo, pero no es hasta la salida de Windows 95 que se le puede considerar un sistema operativo, solo era una interfaz gráfica del MS-DOS. Hoy en día es el sistema operativo más difundido en el ámbito doméstico aunque también hay versiones para servidores como Windows NT. Microsoft ha diseñado también algunas versiones para superordenadores, pero sin mucho éxito. Años después se hizo el Windows 98 que era el más eficaz de esa época Después se crearía el sistema operativo de Windows ME (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo de Windows 2000 en ese mismo año. Después le seguiría el sistema operativo más utilizado en la actualidad, Windows XP y otros sistemas operativos de esta familia especializados en las empresas. Ahora el más reciente es Windows Vista que, actualmente, tiene muchas críticas. Ahora está en desarrollo el sistema operativo Windows 7, que será una especie de "actualización" a Windows Vista, sacando novedades y mejorando problemas de incompatibilidad, rendimiento y más...
8
conclusiones
Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan.
Sin el sistema operativo nada funcionaria... por lo tanto no cabe mucho mas que acotar. Solo es de esperarse que la evolución se mantenga y quizás avizorar mas alternativas a nuestro nunca tan bien ponderado y muchas veces vilipendiado “Windows”.
Web grafía
http://es.wikipedia.org/wiki/Historia_de_los_sistemas_operativos·
http://www.todobytes.net/Articulos/Historia_SO/historia_so.html· http://www.torrealday.com.ar/articulos/articulo005.htm
Etiquetas:
inf324,
informatica,
sistemas operativos
lunes, 26 de abril de 2010
Delitos Informaticos
Héctor Olivo, comunicador dominicano, director de RTVD, televisora estatal dominicana, durante la Administración Fernández, es secretario de Comunicación del PLD, principal partido de oposición en República Dominicana. Perspectiva Ciudadana agradece al autor esta colaboración.
.
El pasado jueves, nuevos insultos a la figura del presidente Hipólito Mejía
fueron publicados en una página en la Internet. La información la leímos
al iniciar la tarde en el portal El Caribe Digital, edición en Internet
del diario El Caribe, posteriormente incluida en la edición impresa del periódico del día siguiente.
Con mucha profesionalidad la redacción explicaba que digitando el nombre
del presidente de la República más otros caracteres, el usuario accesaba a
una página, donde se hacía la promesa de denunciar supuestos hechos de
corrupción atribuidos al Presidente y a sus colaboradores . Al abrir la
pagina el lector visitante podía leer, insultos al mandatario, donde
además, los responsables desafiaban a las autoridades a apresarlos.
Explicaba el mismo periódico en la web que la publicación de dicha página no causó ninguna reacción temprana de parte de las autoridades judiciales,
quienes investigan varias ofensas que fueron hechas a la figura de Mejía en
varios diarios de circulación nacional.
En un articulo anterior advertíamos sobre la posibilidad de que esos casos
se repitieran por una reacción, podría llamarse natural, al trato que el
mandatario ha dado a importantes núcleos sociales.
En casi tres años en el gobierno, Hipólito Mejía ha usado todas clases de epítetos para responder a sus críticos y adversarios. Esta misma semana llamó "disparate" a una atinada sugerencia de la cúpula del CONEP, la entidad que agrupa los empresarios, dirigido por una dama: la señora Elena Villeya de Paliza. Como también lo es Alejandrina Germán , ex Secretaria de la Presidencia e integrante del Comité Político del opositor Partido de la Liberación Dominicana a quien, en una ocasión llamó "vieja azarosa".
Las ocurrencias, boches, insultos, insolencias y resabios del señor
presidente han dado lugar a todo tipo de publicaciones, cuentos y anécdotas,
inclusive de libros, con buen nivel de ventas... El hecho es para
reflexionar y que se entienda que quien "siembra vientos no cosecha
habichuelas" decíamos y este nuevo caso nos da la razón. Ahora hasta se
desafía a las autoridades a apresar al infractor.
Con la piratería a los matutinos Listin Diario y Expreso se respondió con
una acción arbitraria y a todas luces violatoria de la ley, pues se
encarceló, por unos quince días, a un joven experto en informática de quien se sospechaba sin que se le formularan cargos. Cuando se formalizó la acusación el juez que conoció el caso no le quedó más remedio que ordenar su libertad. Las violaciones que argumentaron no eran mandatorias de arresto.
Las legislaciones internacionales, porque carecemos de una nacional, cuando refieren a la piratería en Internet se alude al uso del Internet para copiar o distribuir ilegalmente software no autorizado. Los infractores pueden
utilizar el Internet para todas o algunas de sus operaciones, incluyendo
publicidad, ofertas, compras o distribución de software pirata. Estas
incursiones ofensivas y calumniantes caen en otra categoría.
El propio Presidente del Instituto de las Telecomunicaciones, Orlando Jorge
Mera, conocedor del delito informático, como abogado especializado,
explicaba que en el país no se tiene una legislación sobre el particular,
por lo que se presenta un terreno de cierta fertilidad a los piratas
calumniadores.
La profusión de computadoras, y de abonados a suplidores del servicio del
Internet va cada día en aumento, lo que hace imperativo que se comience a
legislar sobre el particular para que se establezcan las sanciones
correspondientes a estos nuevos delitos en tribunales que puedan discutir y
entender estos casos novedosos.
A modo de ejemplo de cómo otras legislaciones tipifican esta infracción le
citaré un articulo del Código Penal Español referente a Delitos
Informáticos (Ley-Orgánica 10/1995, de 23 de Noviembre/ BOE número 281, de 24 de Noviembre de 1995)
· Artículo 197
· 1.- El que para descubrir los secretos o vulnerar la intimidad de otro,
sin su consentimiento, se apodere de sus papeles, cartas, mensajes de correo electrónico o cualesquiera otros documentos o efectos personales o
intercepte sus telecomunicaciones o utilice artificios técnicos de escucha,
transmisión, grabación o reproducción del sonido o de la imagen, o de
cualquier otra señal de comunicación, será castigado con las penas de
prisión de uno a cuatro años y multa de doce a veinticuatro meses.
Pero todavía tenemos vigente el Código Penal que heredamos del Código
Napoleónico, por lo que resulta ilusorio pensar por el momento que eso se
pudiera actualizar. La confrontación interna del partido del gobierno y la
búsqueda de formulas para atajar la creciente popularidad del candidato
puntero de la oposición, doctor Leonel Fernández, hacen miopes a las
actuales autoridades que no logran ver mas allá de las narices, aunque los
hechos les afecten.
.
El pasado jueves, nuevos insultos a la figura del presidente Hipólito Mejía
fueron publicados en una página en la Internet. La información la leímos
al iniciar la tarde en el portal El Caribe Digital, edición en Internet
del diario El Caribe, posteriormente incluida en la edición impresa del periódico del día siguiente.
Con mucha profesionalidad la redacción explicaba que digitando el nombre
del presidente de la República más otros caracteres, el usuario accesaba a
una página, donde se hacía la promesa de denunciar supuestos hechos de
corrupción atribuidos al Presidente y a sus colaboradores . Al abrir la
pagina el lector visitante podía leer, insultos al mandatario, donde
además, los responsables desafiaban a las autoridades a apresarlos.
Explicaba el mismo periódico en la web que la publicación de dicha página no causó ninguna reacción temprana de parte de las autoridades judiciales,
quienes investigan varias ofensas que fueron hechas a la figura de Mejía en
varios diarios de circulación nacional.
En un articulo anterior advertíamos sobre la posibilidad de que esos casos
se repitieran por una reacción, podría llamarse natural, al trato que el
mandatario ha dado a importantes núcleos sociales.
En casi tres años en el gobierno, Hipólito Mejía ha usado todas clases de epítetos para responder a sus críticos y adversarios. Esta misma semana llamó "disparate" a una atinada sugerencia de la cúpula del CONEP, la entidad que agrupa los empresarios, dirigido por una dama: la señora Elena Villeya de Paliza. Como también lo es Alejandrina Germán , ex Secretaria de la Presidencia e integrante del Comité Político del opositor Partido de la Liberación Dominicana a quien, en una ocasión llamó "vieja azarosa".
Las ocurrencias, boches, insultos, insolencias y resabios del señor
presidente han dado lugar a todo tipo de publicaciones, cuentos y anécdotas,
inclusive de libros, con buen nivel de ventas... El hecho es para
reflexionar y que se entienda que quien "siembra vientos no cosecha
habichuelas" decíamos y este nuevo caso nos da la razón. Ahora hasta se
desafía a las autoridades a apresar al infractor.
Con la piratería a los matutinos Listin Diario y Expreso se respondió con
una acción arbitraria y a todas luces violatoria de la ley, pues se
encarceló, por unos quince días, a un joven experto en informática de quien se sospechaba sin que se le formularan cargos. Cuando se formalizó la acusación el juez que conoció el caso no le quedó más remedio que ordenar su libertad. Las violaciones que argumentaron no eran mandatorias de arresto.
Las legislaciones internacionales, porque carecemos de una nacional, cuando refieren a la piratería en Internet se alude al uso del Internet para copiar o distribuir ilegalmente software no autorizado. Los infractores pueden
utilizar el Internet para todas o algunas de sus operaciones, incluyendo
publicidad, ofertas, compras o distribución de software pirata. Estas
incursiones ofensivas y calumniantes caen en otra categoría.
El propio Presidente del Instituto de las Telecomunicaciones, Orlando Jorge
Mera, conocedor del delito informático, como abogado especializado,
explicaba que en el país no se tiene una legislación sobre el particular,
por lo que se presenta un terreno de cierta fertilidad a los piratas
calumniadores.
La profusión de computadoras, y de abonados a suplidores del servicio del
Internet va cada día en aumento, lo que hace imperativo que se comience a
legislar sobre el particular para que se establezcan las sanciones
correspondientes a estos nuevos delitos en tribunales que puedan discutir y
entender estos casos novedosos.
A modo de ejemplo de cómo otras legislaciones tipifican esta infracción le
citaré un articulo del Código Penal Español referente a Delitos
Informáticos (Ley-Orgánica 10/1995, de 23 de Noviembre/ BOE número 281, de 24 de Noviembre de 1995)
· Artículo 197
· 1.- El que para descubrir los secretos o vulnerar la intimidad de otro,
sin su consentimiento, se apodere de sus papeles, cartas, mensajes de correo electrónico o cualesquiera otros documentos o efectos personales o
intercepte sus telecomunicaciones o utilice artificios técnicos de escucha,
transmisión, grabación o reproducción del sonido o de la imagen, o de
cualquier otra señal de comunicación, será castigado con las penas de
prisión de uno a cuatro años y multa de doce a veinticuatro meses.
Pero todavía tenemos vigente el Código Penal que heredamos del Código
Napoleónico, por lo que resulta ilusorio pensar por el momento que eso se
pudiera actualizar. La confrontación interna del partido del gobierno y la
búsqueda de formulas para atajar la creciente popularidad del candidato
puntero de la oposición, doctor Leonel Fernández, hacen miopes a las
actuales autoridades que no logran ver mas allá de las narices, aunque los
hechos les afecten.
Banda de los “Jara Roldan” involucrados en varios delitos
Banda de los “Jara Roldan” involucrados en varios delitos
Manta,EM.-
De acuerdo a la recopilación de información de datos en el Sistema Informático de la Policía, se conoce que la banda Jara Roldan la integran miembro de una misma familia, quienes han participado en varios hechos delictivos suscitados en la ciudad, logrando ser detenidos, pero con mucha facilidad han sido liberados.
Entre los casos más relevantes, la banda Jara Roldan habría participado en el robo a almacenes la Ganga el pasado 6 de abril del 2008.
Otro de los hechos más recientes es la captura de Edison Evaristo Jara Roldan de 21 años, por robo de una motocicleta al medio día del miércoles, en la vía Interbarrial.
Así mismo está acusado de ser uno de los autores del intento de asesinato de Jorge Leonardo Aguirre Vera (21) en compañía de su hermano Luís Miguel Jara Roldan. Hecho suscitado la noche del martes en el barrio 15 de Abril.
Eddy Fernando Jara Roldan, otro integrante de esta banda registra 10 detenciones por diferentes delitos, pese a esto esta libre por las calles de la ciudad.
El 12 de agosto del 2009 fueron detenidos por tentativa de robo los hermanos Edison Evaristo y Luís Miguel Jara Roldan, en la vía Manta-Rocafuerte. En este caso intentaban asaltar a un señora, la que fue ayudada por moradores, evitando el robo, siendo detenidos ambos.
El 12 de agosto del 2009 fue detenido Mario Gabriel Jara Roldan de 24 años, en la calle 107 y avenida 103 y 104, por encontrarle en su poder un arma de fuego sin el permiso respectivo.
En estos y otros casos que aún no son denunciados están involucrados los hermanos Jara Roldan, manifestó la Policía Nacional, acantonada en la ciudad, por lo que piden a las personas que hayan sido perjudicados por estos sujetos por favor denunciar.
De acuerdo a la recopilación de información de datos en el Sistema Informático de la Policía, se conoce que la banda Jara Roldan la integran miembro de una misma familia, quienes han participado en varios hechos delictivos suscitados en la ciudad, logrando ser detenidos, pero con mucha facilidad han sido liberados.
Entre los casos más relevantes, la banda Jara Roldan habría participado en el robo a almacenes la Ganga el pasado 6 de abril del 2008.
Otro de los hechos más recientes es la captura de Edison Evaristo Jara Roldan de 21 años, por robo de una motocicleta al medio día del miércoles, en la vía Interbarrial.
Así mismo está acusado de ser uno de los autores del intento de asesinato de Jorge Leonardo Aguirre Vera (21) en compañía de su hermano Luís Miguel Jara Roldan. Hecho suscitado la noche del martes en el barrio 15 de Abril.
Eddy Fernando Jara Roldan, otro integrante de esta banda registra 10 detenciones por diferentes delitos, pese a esto esta libre por las calles de la ciudad.
El 12 de agosto del 2009 fueron detenidos por tentativa de robo los hermanos Edison Evaristo y Luís Miguel Jara Roldan, en la vía Manta-Rocafuerte. En este caso intentaban asaltar a un señora, la que fue ayudada por moradores, evitando el robo, siendo detenidos ambos.
El 12 de agosto del 2009 fue detenido Mario Gabriel Jara Roldan de 24 años, en la calle 107 y avenida 103 y 104, por encontrarle en su poder un arma de fuego sin el permiso respectivo.
En estos y otros casos que aún no son denunciados están involucrados los hermanos Jara Roldan, manifestó la Policía Nacional, acantonada en la ciudad, por lo que piden a las personas que hayan sido perjudicados por estos sujetos por favor denunciar.
sábado, 10 de abril de 2010
iKNOW Politics
En todo el mundo, las mujeres y los hombres que participan en política están utilizando crecientemente diferentes plataformas tecnológicas, tanto durante sus campañas como para seguir dialogando con sus audiencias cuando se convierten en representantes elegidos.
Las recientes elecciones en Estados Unidos y la victoria de Barack Obama brindaron a toda la humanidad la ocasión de observar una utilización innovadora de las nuevas tecnologías en las campañas políticas, la movilización de masas y la recaudación de fondos.
Las y los líderes políticos están captando las posibilidades que estas tecnologías ofrecen para llegar a las multitudes; así, muchas personas que intervienen en política manejan sus propios weblogs, páginas en Facebook y cuentas en Twitter. Se ha extendido el uso de los mensajes de texto para alertar al periodismo y crear campañas virtuales en torno a manifestaciones públicas, debates televisados y conferencias de prensa. Asimismo, los videos en YouTube están complementando los espacios televisivos pagados y son utilizados para lanzar mensajes políticos sin depender de las fuentes mediáticas convencionales. Las y los activistas están usando estas redes sociales para organizar mítines y divulgar información sobre cuestiones de política pública. Y también se están efectuando cada vez más interacciones ciudadano-gobierno mediante encuestas, foros de debate y plataformas en la web, lo cual sirve para incrementar la participación del público y la rendición de cuentas.
El siglo XXI ha visto un incremento sin precedentes de las y los usuarios de Internet en todo el mundo. De los 1.300 millones de habitantes que tiene China, el 29% son usuarios de la red, lo mismo que el 48,5% de la población de Irán y el 30,5% de la población de América Latina y el Caribe. Asimismo, entre los años 2000 y 2009, el incremento de las y los usuarios en el continente africano ha sido gigantesco: aproximadamente 1.392,4%.
Más de 350 millones de usuarios de Facebook se comunican a través de las fronteras cada día, y pasan cerca de 10.000 millones de minutos diarios conectados a esta red electrónica social. Según un reciente informe, al menos la mitad de la población mundial cuenta con un teléfono móvil, cifra que se está incrementando permanentemente.
Estas son solo algunas de las estadísticas que muestran la siempre creciente presencia de alguna forma de tecnología en la vida cotidiana de las personas. Según estadísticas suministradas por la Unión Internacional de Telecomunicaciones, en 1994 la brecha digital entre los países desarrollados y en desarrollo era 73 veces mayor a favor de los primeros, mientras que en el 2004 era solo 8 veces mayor. C. Fink y C. Kenny, en W(h)ither the digital divide (2003), señalaron que «la característica más saltante de la brecha no se refiere a cuán grande es, sino a cuán rápidamente se está estrechando».
El impacto de esta creciente penetración de la tecnología ya se ha dejado sentir en el desarrollo. Por ejemplo, los empresarios africanos están obteniendo microcréditos, los médicos de la India pueden diagnosticar a pacientes de Etiopía, y el reciente Movimiento Verde de Irán se organizó en gran parte mediante la web y vía mensajes SMS, por nombrar unos cuantos recursos. Los asombrosos canales de distribución disponibles mediante YouTube, Podcasting, Facebook, Twitter y otras redes, así como el alcance de la tecnología entre las masas, nunca han sido tan omnipresentes.
Las recientes elecciones en Estados Unidos y la victoria de Barack Obama brindaron a toda la humanidad la ocasión de observar una utilización innovadora de las nuevas tecnologías en las campañas políticas, la movilización de masas y la recaudación de fondos.
Las y los líderes políticos están captando las posibilidades que estas tecnologías ofrecen para llegar a las multitudes; así, muchas personas que intervienen en política manejan sus propios weblogs, páginas en Facebook y cuentas en Twitter. Se ha extendido el uso de los mensajes de texto para alertar al periodismo y crear campañas virtuales en torno a manifestaciones públicas, debates televisados y conferencias de prensa. Asimismo, los videos en YouTube están complementando los espacios televisivos pagados y son utilizados para lanzar mensajes políticos sin depender de las fuentes mediáticas convencionales. Las y los activistas están usando estas redes sociales para organizar mítines y divulgar información sobre cuestiones de política pública. Y también se están efectuando cada vez más interacciones ciudadano-gobierno mediante encuestas, foros de debate y plataformas en la web, lo cual sirve para incrementar la participación del público y la rendición de cuentas.
El siglo XXI ha visto un incremento sin precedentes de las y los usuarios de Internet en todo el mundo. De los 1.300 millones de habitantes que tiene China, el 29% son usuarios de la red, lo mismo que el 48,5% de la población de Irán y el 30,5% de la población de América Latina y el Caribe. Asimismo, entre los años 2000 y 2009, el incremento de las y los usuarios en el continente africano ha sido gigantesco: aproximadamente 1.392,4%.
Más de 350 millones de usuarios de Facebook se comunican a través de las fronteras cada día, y pasan cerca de 10.000 millones de minutos diarios conectados a esta red electrónica social. Según un reciente informe, al menos la mitad de la población mundial cuenta con un teléfono móvil, cifra que se está incrementando permanentemente.
Estas son solo algunas de las estadísticas que muestran la siempre creciente presencia de alguna forma de tecnología en la vida cotidiana de las personas. Según estadísticas suministradas por la Unión Internacional de Telecomunicaciones, en 1994 la brecha digital entre los países desarrollados y en desarrollo era 73 veces mayor a favor de los primeros, mientras que en el 2004 era solo 8 veces mayor. C. Fink y C. Kenny, en W(h)ither the digital divide (2003), señalaron que «la característica más saltante de la brecha no se refiere a cuán grande es, sino a cuán rápidamente se está estrechando».
El impacto de esta creciente penetración de la tecnología ya se ha dejado sentir en el desarrollo. Por ejemplo, los empresarios africanos están obteniendo microcréditos, los médicos de la India pueden diagnosticar a pacientes de Etiopía, y el reciente Movimiento Verde de Irán se organizó en gran parte mediante la web y vía mensajes SMS, por nombrar unos cuantos recursos. Los asombrosos canales de distribución disponibles mediante YouTube, Podcasting, Facebook, Twitter y otras redes, así como el alcance de la tecnología entre las masas, nunca han sido tan omnipresentes.
Etiquetas:
estadistica,
hombre,
mujer,
politica
jueves, 8 de abril de 2010
Historia y Evolución de los Sistemas Operativos
Definición
Programa o conjunto de programas que permiten administrar los recursos de hardware y software de una computadora.
> Un poco de historia: CP/M y D.O.S., el comienzo
CP/M (Control Program for Microcomputers), desarrollado por Gary Kildall fue el primer sistema operativo que podía ejecutarse en PCs de diferentes fabricantes. Cuenta una anécdota que ejecutivos de IBM fueron a visitar a Kildall para ofrecerle un acuerdo para poner el CP/M en la IBM PC, pero Kildall al parecer estaba ocupado en una sesión de vuelo, y no los pudo atender. Resultado: IBM llegó a un acuerdo con un joven llamado Bill Gates para que desarrollara un sistema operativo, que se dio en llamar MS-DOS.
Para muchos de los que hoy nos encontramos trabajando con una computadora el sistema operativo D.O.S (Disk Operating System) fue el primero que nos tocó utilizar. De la misma manera, fue también el comienzo para Bill Gates y su empresa Microsoft.
En sus principios fue desarrollado junto con la empresa IBM, pero diferencias entre las partes hicieron que no fuera un lanzamiento en conjunto. Por el contrario, cada una de las empresas presentó "su" sistema operativo: PC-DOS (IBM) y MS-DOS (Microsoft).
Un tercer competidor para estos sistemas operativos (y de muy buena calidad) fue el DR-D.O.S. de la empresa Digital Research que incluía comandos más prolijos y de mayor funcionalidad, pero que con el tiempo, y gracias a las campañas publicitarias de Microsoft fue quedando relegado a un segundo lugar compartido con el PC-DOS de IBM. Luego de unos años DR-D.O.S. fue adquirido por Novell que presentó una nueva versión conocida como Novell D.O.S. que realmente casi no tuvo cabida en el mercado, aunque era muy buena.
D.O.S. era simplemente una pantalla de texto con una línea de comandos que nos indicaba en qué directorio nos encontrábamos como único dato orientativo. Uno tenía que "saber" que "cosas" había que escribir para que la máquina "hiciera algo". No había menúes contextuales, ni pantallas gráficas que nos guiaran. Carecía por completo de algún nivel intuitivo. D.O.S. todavía hoy utiliza antiguos comandos CP/M tales como DIR, REN y TYPE que aun hoy funcionan bajo la máquina virtual D.O.S. de Windows.
Las versiones que lo hicieron famoso en el mundo entero fueron la 3.0 y la 3.3, mientras que la más utilizada fue la 5.0, que introdujo muchos cambios a sus antecesoras. La versión 4.0 de D.O.S. estuvo plagada de errores, por lo cual casi no se uso (los usuarios se mantuvieron con la versión 3.30).
La última versión del producto como tal fue la 6.22, ya que luego apareció Windows 95 que en su corazón incluía la versión 7.0
> Windows, el inicio de una interfaz gráfica
Las dos primeras versiones de este "Entorno Operativo" (nótese que no era un sistema operativo en sus principios) no tuvieron mucho éxito entre el público consumidor. Lo único que logró fue que Apple le iniciara un juicio a Microsoft por su semejanza con su sistema operativo MacOs.
El boom de Windows se produjo con su versión 3.0 (y más aún con la 3.1) cuando comenzó a aprovechar las capacidades de los procesadores "386" y le dio un mejor manejo a la memoria hacia el año 1991
Fue simplemente un "shell" para DOS, ya que sin este no funcionaba. Y por esa razón no es un sistema operativo, sino un "entorno operativo". El atractivo que tuvo para con la gente fue su "casi real" facilidad de uso y su "cara" gráfica que hacía olvidar "las pantallas negras" de DOS.
Un tiempo más tarde se le agregaron capacidades para trabajar con redes y pasó a la versión 3.11 (para grupos de trabajo). Esta fue la última versión comercial que salió al mercado antes de que Windows 95 hiciera su aparición.
> Windows 95: El entorno operativo
Desde el principio, Windows 95 se publicitó como un sistema operativo de 32 bits. Pero cuando salió a la luz se pudo ver que esto no era totalmente verdad: era un sistema operativo (ya no un entorno), porque no necesitaba de ningún otro programa para poder funcionar (aunque se incluía el DOS 7.0 "completo" y alguien dijo que "sí" lo necesitaba). Por otro lado, la promesa de los 32 bits (programas más rápidos y mejor aprovechamiento de la memoria) no se cumplió. Muchas de las "partes" de este sistema operativo fueron de 16 bits como sus antecesores. Esto se explicó diciendo que era así por la cantidad de programas "heredados" de las versiones anteriores (Windows 3.1).
Casi en el mismo momento (un año antes) apareció en el mercado un verdadero sistema operativo de 32 bits que sería la competencia directa al tan publicitado Windows 95: OS/2 de IBM. En principio fue desarrollado en cooperación entre IBM y Microsoft (como años atrás con el DOS), y como años atrás surgieron diferencias que hicieron que cada empresa presentara su producto.
OS/2 fue un sistema operativo totalmente de 32 bits que muchos expertos consideran mejor, más estable y con mayores prestaciones que Windows 95, pero que (nuevamente) las campañas publicitarias relegaron a un segundo lugar, ya que la gran mayoría de los desarrolladores decidieron hacer sus programas "compatibles" con Windows 95 y no con OS/2.
> Windows 98/NT: Ya nada sería igual
Windows 98 no representó para los usuarios comunes ningún cambio significativo. Sólo un poco de retoque gráfico y alguna que otra utilidad nueva o mejorada (como el "liberador de espacio" o el viejo "defrag"). Pero si trajo algunas cosas nuevas: el soporte completo para los 32 bits, y la “eliminación” del DOS como sistema independiente (ya que no incluyó una nueva versión, sino un emulador del mismo).
En esta época no podemos dejar de mencionar Windows NT (Windows Nueva Tecnología). Windows NT fue un sistema operativo de 32 bits especializado en redes que utilizó otro sistema para el manejo de los archivos (NTFS), y por lo tanto "incompatible" con Windows 95/98.
Versiones de Windows NT: 3.1, 3.5, 3.51, 4; está ultima versión tuvo estas variantes: Workstation, Server, Server Enterprise Edition, Terminal Server, Embedded.
> Windows 2000/Windows ME, continua la saga
Windows 2000 fue el sucesor de NT, por lo que estuvo orientado a empresas y heredó muchas de las características de este; hasta llegar a su última versión 2003 Server.
Su gran estabilidad, su soporte para varios procesadores, su alto nivel de seguridad, además de sus impresionantes capacidades para desenvolverse como server lo hicieron la mejor opción para una empresa. Era rápido y lo suficientemente fácil de configurar casi para cualquier persona, pero hay que tener en cuenta que tiene poco soporte para el agregado de periféricos como tarjetas de video o de sonido. Es decir, este no fue un sistema operativo totalmente apto para la multimedia.
Al ser de esta manera, es no fue aconsejable su uso en hogares, donde comunmente encontraremos juegos, música en la PC, enciclopedias multimedia y demás.
Ahí es donde entró Windows Millennium Edition (ME), sucesor de Windows 98: Fue un sistema operativo donde primó la facilidad de uso, las mejoras en multimedia, comunicaciones e Internet.
Aunque no contó con la estabilidad de Windows 2000 fue más seguro que Windows 98 y 98 SE (segunda edición) ya que se incorporaron una serie de utilidades para proteger el sistema operativo y hacerlo más resistente a las instalaciones de programas y drivers de terceros que, en definitiva, fueron las principales causas de cuelgues y pantallas azules en sus predecesores.
Una de las cosas interesantes con que nos encontramos en Windows ME es que el modo DOS, tal como lo conocimos, había dejado de existir. Ya no era posible iniciar el sistema en "sólo símbolo del sistema" o apagar el sistema "reiniciando en modo MS-DOS". Tanto es así, que los archivos AUTOEXEC.BAT y CONFIG.SYS ya no tuvieron ninguna función en ME (salvo durante la instalación). Lo que realmente se eliminó de Windows ME fue el soporte para aplicaciones DOS de 16 bits en modo real.
En su momento, la elección de uno u otro sistema dependió del uso que deseaba hacer de la PC, siendo lo más lógico Windows 2000 para empresas y Windows ME para hogares.
El tiempo también dijo que Windows Millennium Edition fue el mas inestable de los sistemas operativos post Windows 95.
La línea Windows 2000 Server fué reemplazada por Windows Server 2003, y Windows 2000 Professional con Windows XP Professional.
Versiones de Windows 2000: Professional, Server, Advanced Server y Datacenter Server.
> Windows XP/Windows 2003 Server, la nueva generación del escritorio
Windows XP fue la mejora mas importante técnicamente desde Windows 9x, y unificó en cierto modo las versiones separadas que hubo estos años: WINDOWS 9x/ME para usuarios hogareños y SOHO contra Windows NT/2000 para usuarios corporativos con requerimientos de trabajo en redes de alto nivel.
Windows XP se distribuyó en 2 versiones principales: Windows XP Home Edition y Windows XP Profesional. La versión Home no tenía tanto soporte para redes, lo que si incluyó la versión Profesional.
Esto S.O., además de constituirse en la unión de los entornos mencionados, es en realidad la continuación de Windows NT/2000. Se destacó en este producto su alto grado de integración con las redes e Internet, además de proveer una nueva interfase gráfica que se hizo notar ni bien se comienza a utilizar. Los cambios de interfaz fueron básicamente estéticos. La diferencia real con sus predecesores estuvo dada por el soporte LAN, soft de grabación de CDs, multimedia, escritorio remoto y manejo de usuarios.
Algo muy importante es el hecho de que Microsoft con esta versión de su S.O. ha puso especial énfasis en los drivers. WXP fué muchísimo mas renuente que sus predecesores a instalar drivers no certificados para el mismo. Con esto Microsoft pretendió reducir al máximo las ya tan conocidas (y sufridas) "pantallas azules", aduciendo que la mayoría de las causas de inestabilidad de las versiones anteriores estaba dada por el uso de drivers no certificados, obsoletos o mal desarrollados. Debido a esto, se destaca la búsqueda inteligente de controladores que hace el S.O. al momento de instalar un dispositivo nuevo, escaneando unidades en busca de los drivers correctos.
Windows XP contó con las actualizaciones más profundas a nivel seguridad que ningún otro sistema operativo Microsoft: prueba de ello fueron los Service Pack 1 y 2. También fue el primero en adoptar un sistema de verificación de autenticidad del S.O.: WGA (Windows Genuine Advantage)
Windows 2003 Server estuvo basado en el núcleo de Windows XP, al que se le añadieron una serie de servicios, y se le han bloqueado algunas características. A grandes rasgos, Windows Server 2003 es un Windows XP simplificado, no con menos funciones, sino que estas están deshabilitadas por defecto para obtener un mejor rendimiento y para centrar el uso de procesador en las características de servidor.
Versiones de Windows XP:
Windows XP 64 Bits: Uso en procesadores de 64 bits.
Windows XP Media Center Edition
Windows XP Tablet PC Edition: Tablet PC
Windows XP Embedded: ATM, terminales.
Windows Fundamentals for Legacy PCs: Versión simplificada de XP para uso en hardware obsoleto.
Windows XP Starter Edition: distribuida solo en determinados países, (una versión tan básica y limitada que por momentos se torna bastante impráctica al momento de utilizarla).
Versiones de Windows 2003 Server: Web Edition, Standard Edition, Enterprise Edition, Datacenter Edition
> Windows Vista, la era post XP de Microsoft
Windows Vista requiere de hardware realmente potente para ejecutarse en toda su dimensión o con una performance aceptable; incluso para las versiones mas "básicas" de este S.O.
Las versiones disponibles son varias: Enterprise, Business, Ultimate (para usuarios corporativos), Starter (solo comercializada en países emergentes, una versión reducida que si es similar a su homónima de Windows XP); y por último las versiones Home Basic y Home Premium (para usuarios domésticos).
> Linux: el futuro alternativo?
Cuando Linus Torvalds comenzó a trabajar sobre Minix para obtener su propio sistema operativo no tenía ni la más remota idea de lo que su trabajo llegaría a ser en todo el mundo. Este sistema operativo es totalmente distinto a los vistos anteriormente por un montón de razones. He aquí algunas de ellas:
* No fue desarrollado por una gran empresa:
Linus Torvalds desarrolló el kernel (el corazón) del sistema y luego liberó el código fuente del mismo en Internet para que cualquier programador que se animara pudiera modificarlo y agregarle lo que quisiera. Así, el Linux que hoy se conoce fue creado por cientos de programadores "libres" alrededor del mundo y no por una empresa.
* Es gratis y abierto:
Todo el sistema operativo es totalmente gratuito (al igual que muchísimos de sus programas), si posee una conexión a Internet es posible bajarlo a su máquina. Lo que algunas empresas hacen es "empacar" el sistema y algunos programas y grabarlos en CD’s, que junto con algún manual es lo que luego "venden". Esto se conoce como Distribuciones.
Además, junto con el sistema vienen los códigos fuentes del mismo (y de algunos programas) para que pueda ser modificado a gusto del usuario (si este es un programador experimentado), es por esto que se dice que es "abierto".
* Nació a partir de otro sistema operativo:
Es una modificación del sistema Minix, que a su vez nació como una "reducción" de UNIX, "el único sistema operativo verdadero, a partir del cual se crearon los demás" (incluido DOS) según la opinión de muchos Hackers.
Este sistema operativo es el elegido por las empresas que proveen acceso a Internet, debido a su gran estabilidad y eficiencia. Además, posee un muy buen manejo de redes y seguridad, lo que está haciendo que muchas empresas e instituciones (escolares sobre todo) lo tengan en cuenta para reemplazar sus sistemas actuales.
En un principio, Linux también era una "pantalla negra" en modo texto y muy poco intuitivo (al igual que DOS, al igual que UNIX). Pero desde hace un tiempo se desarrollaron entornos gráficos (varios: KDE, Gnome, etc.) que no tienen nada que envidiarle a Windows 95/98 y que hacen que más usuarios (menos experimentados) se "animen" a usarlo.
Por lo anterior y el gran auge de Internet este es el sistema operativo que más crecimiento ha tenido en los últimos años, y el que se perfila quizá como una alternativa válida para el futuro.
Algunas distribuciones de Linux conocidas: Red Hat, Debian, Fedora, Gentoo, Mandriva, Rxart, Slackware, Suse, Ubuntu, Kubuntu
> Conclusión
Sin el sistema operativo nada funcionaria... por lo tanto no cabe mucho mas que acotar. Solo es de esperarse que la evolución se mantenga y quizás avizorar mas alternativas a nuestro nunca tan bien ponderado y muchas veces vilipendiado “Windows”.
Programa o conjunto de programas que permiten administrar los recursos de hardware y software de una computadora.
> Un poco de historia: CP/M y D.O.S., el comienzo
CP/M (Control Program for Microcomputers), desarrollado por Gary Kildall fue el primer sistema operativo que podía ejecutarse en PCs de diferentes fabricantes. Cuenta una anécdota que ejecutivos de IBM fueron a visitar a Kildall para ofrecerle un acuerdo para poner el CP/M en la IBM PC, pero Kildall al parecer estaba ocupado en una sesión de vuelo, y no los pudo atender. Resultado: IBM llegó a un acuerdo con un joven llamado Bill Gates para que desarrollara un sistema operativo, que se dio en llamar MS-DOS.
Para muchos de los que hoy nos encontramos trabajando con una computadora el sistema operativo D.O.S (Disk Operating System) fue el primero que nos tocó utilizar. De la misma manera, fue también el comienzo para Bill Gates y su empresa Microsoft.
En sus principios fue desarrollado junto con la empresa IBM, pero diferencias entre las partes hicieron que no fuera un lanzamiento en conjunto. Por el contrario, cada una de las empresas presentó "su" sistema operativo: PC-DOS (IBM) y MS-DOS (Microsoft).
Un tercer competidor para estos sistemas operativos (y de muy buena calidad) fue el DR-D.O.S. de la empresa Digital Research que incluía comandos más prolijos y de mayor funcionalidad, pero que con el tiempo, y gracias a las campañas publicitarias de Microsoft fue quedando relegado a un segundo lugar compartido con el PC-DOS de IBM. Luego de unos años DR-D.O.S. fue adquirido por Novell que presentó una nueva versión conocida como Novell D.O.S. que realmente casi no tuvo cabida en el mercado, aunque era muy buena.
D.O.S. era simplemente una pantalla de texto con una línea de comandos que nos indicaba en qué directorio nos encontrábamos como único dato orientativo. Uno tenía que "saber" que "cosas" había que escribir para que la máquina "hiciera algo". No había menúes contextuales, ni pantallas gráficas que nos guiaran. Carecía por completo de algún nivel intuitivo. D.O.S. todavía hoy utiliza antiguos comandos CP/M tales como DIR, REN y TYPE que aun hoy funcionan bajo la máquina virtual D.O.S. de Windows.
Las versiones que lo hicieron famoso en el mundo entero fueron la 3.0 y la 3.3, mientras que la más utilizada fue la 5.0, que introdujo muchos cambios a sus antecesoras. La versión 4.0 de D.O.S. estuvo plagada de errores, por lo cual casi no se uso (los usuarios se mantuvieron con la versión 3.30).
La última versión del producto como tal fue la 6.22, ya que luego apareció Windows 95 que en su corazón incluía la versión 7.0
> Windows, el inicio de una interfaz gráfica
Las dos primeras versiones de este "Entorno Operativo" (nótese que no era un sistema operativo en sus principios) no tuvieron mucho éxito entre el público consumidor. Lo único que logró fue que Apple le iniciara un juicio a Microsoft por su semejanza con su sistema operativo MacOs.
El boom de Windows se produjo con su versión 3.0 (y más aún con la 3.1) cuando comenzó a aprovechar las capacidades de los procesadores "386" y le dio un mejor manejo a la memoria hacia el año 1991
Fue simplemente un "shell" para DOS, ya que sin este no funcionaba. Y por esa razón no es un sistema operativo, sino un "entorno operativo". El atractivo que tuvo para con la gente fue su "casi real" facilidad de uso y su "cara" gráfica que hacía olvidar "las pantallas negras" de DOS.
Un tiempo más tarde se le agregaron capacidades para trabajar con redes y pasó a la versión 3.11 (para grupos de trabajo). Esta fue la última versión comercial que salió al mercado antes de que Windows 95 hiciera su aparición.
> Windows 95: El entorno operativo
Desde el principio, Windows 95 se publicitó como un sistema operativo de 32 bits. Pero cuando salió a la luz se pudo ver que esto no era totalmente verdad: era un sistema operativo (ya no un entorno), porque no necesitaba de ningún otro programa para poder funcionar (aunque se incluía el DOS 7.0 "completo" y alguien dijo que "sí" lo necesitaba). Por otro lado, la promesa de los 32 bits (programas más rápidos y mejor aprovechamiento de la memoria) no se cumplió. Muchas de las "partes" de este sistema operativo fueron de 16 bits como sus antecesores. Esto se explicó diciendo que era así por la cantidad de programas "heredados" de las versiones anteriores (Windows 3.1).
Casi en el mismo momento (un año antes) apareció en el mercado un verdadero sistema operativo de 32 bits que sería la competencia directa al tan publicitado Windows 95: OS/2 de IBM. En principio fue desarrollado en cooperación entre IBM y Microsoft (como años atrás con el DOS), y como años atrás surgieron diferencias que hicieron que cada empresa presentara su producto.
OS/2 fue un sistema operativo totalmente de 32 bits que muchos expertos consideran mejor, más estable y con mayores prestaciones que Windows 95, pero que (nuevamente) las campañas publicitarias relegaron a un segundo lugar, ya que la gran mayoría de los desarrolladores decidieron hacer sus programas "compatibles" con Windows 95 y no con OS/2.
> Windows 98/NT: Ya nada sería igual
Windows 98 no representó para los usuarios comunes ningún cambio significativo. Sólo un poco de retoque gráfico y alguna que otra utilidad nueva o mejorada (como el "liberador de espacio" o el viejo "defrag"). Pero si trajo algunas cosas nuevas: el soporte completo para los 32 bits, y la “eliminación” del DOS como sistema independiente (ya que no incluyó una nueva versión, sino un emulador del mismo).
En esta época no podemos dejar de mencionar Windows NT (Windows Nueva Tecnología). Windows NT fue un sistema operativo de 32 bits especializado en redes que utilizó otro sistema para el manejo de los archivos (NTFS), y por lo tanto "incompatible" con Windows 95/98.
Versiones de Windows NT: 3.1, 3.5, 3.51, 4; está ultima versión tuvo estas variantes: Workstation, Server, Server Enterprise Edition, Terminal Server, Embedded.
> Windows 2000/Windows ME, continua la saga
Windows 2000 fue el sucesor de NT, por lo que estuvo orientado a empresas y heredó muchas de las características de este; hasta llegar a su última versión 2003 Server.
Su gran estabilidad, su soporte para varios procesadores, su alto nivel de seguridad, además de sus impresionantes capacidades para desenvolverse como server lo hicieron la mejor opción para una empresa. Era rápido y lo suficientemente fácil de configurar casi para cualquier persona, pero hay que tener en cuenta que tiene poco soporte para el agregado de periféricos como tarjetas de video o de sonido. Es decir, este no fue un sistema operativo totalmente apto para la multimedia.
Al ser de esta manera, es no fue aconsejable su uso en hogares, donde comunmente encontraremos juegos, música en la PC, enciclopedias multimedia y demás.
Ahí es donde entró Windows Millennium Edition (ME), sucesor de Windows 98: Fue un sistema operativo donde primó la facilidad de uso, las mejoras en multimedia, comunicaciones e Internet.
Aunque no contó con la estabilidad de Windows 2000 fue más seguro que Windows 98 y 98 SE (segunda edición) ya que se incorporaron una serie de utilidades para proteger el sistema operativo y hacerlo más resistente a las instalaciones de programas y drivers de terceros que, en definitiva, fueron las principales causas de cuelgues y pantallas azules en sus predecesores.
Una de las cosas interesantes con que nos encontramos en Windows ME es que el modo DOS, tal como lo conocimos, había dejado de existir. Ya no era posible iniciar el sistema en "sólo símbolo del sistema" o apagar el sistema "reiniciando en modo MS-DOS". Tanto es así, que los archivos AUTOEXEC.BAT y CONFIG.SYS ya no tuvieron ninguna función en ME (salvo durante la instalación). Lo que realmente se eliminó de Windows ME fue el soporte para aplicaciones DOS de 16 bits en modo real.
En su momento, la elección de uno u otro sistema dependió del uso que deseaba hacer de la PC, siendo lo más lógico Windows 2000 para empresas y Windows ME para hogares.
El tiempo también dijo que Windows Millennium Edition fue el mas inestable de los sistemas operativos post Windows 95.
La línea Windows 2000 Server fué reemplazada por Windows Server 2003, y Windows 2000 Professional con Windows XP Professional.
Versiones de Windows 2000: Professional, Server, Advanced Server y Datacenter Server.
> Windows XP/Windows 2003 Server, la nueva generación del escritorio
Windows XP fue la mejora mas importante técnicamente desde Windows 9x, y unificó en cierto modo las versiones separadas que hubo estos años: WINDOWS 9x/ME para usuarios hogareños y SOHO contra Windows NT/2000 para usuarios corporativos con requerimientos de trabajo en redes de alto nivel.
Windows XP se distribuyó en 2 versiones principales: Windows XP Home Edition y Windows XP Profesional. La versión Home no tenía tanto soporte para redes, lo que si incluyó la versión Profesional.
Esto S.O., además de constituirse en la unión de los entornos mencionados, es en realidad la continuación de Windows NT/2000. Se destacó en este producto su alto grado de integración con las redes e Internet, además de proveer una nueva interfase gráfica que se hizo notar ni bien se comienza a utilizar. Los cambios de interfaz fueron básicamente estéticos. La diferencia real con sus predecesores estuvo dada por el soporte LAN, soft de grabación de CDs, multimedia, escritorio remoto y manejo de usuarios.
Algo muy importante es el hecho de que Microsoft con esta versión de su S.O. ha puso especial énfasis en los drivers. WXP fué muchísimo mas renuente que sus predecesores a instalar drivers no certificados para el mismo. Con esto Microsoft pretendió reducir al máximo las ya tan conocidas (y sufridas) "pantallas azules", aduciendo que la mayoría de las causas de inestabilidad de las versiones anteriores estaba dada por el uso de drivers no certificados, obsoletos o mal desarrollados. Debido a esto, se destaca la búsqueda inteligente de controladores que hace el S.O. al momento de instalar un dispositivo nuevo, escaneando unidades en busca de los drivers correctos.
Windows XP contó con las actualizaciones más profundas a nivel seguridad que ningún otro sistema operativo Microsoft: prueba de ello fueron los Service Pack 1 y 2. También fue el primero en adoptar un sistema de verificación de autenticidad del S.O.: WGA (Windows Genuine Advantage)
Windows 2003 Server estuvo basado en el núcleo de Windows XP, al que se le añadieron una serie de servicios, y se le han bloqueado algunas características. A grandes rasgos, Windows Server 2003 es un Windows XP simplificado, no con menos funciones, sino que estas están deshabilitadas por defecto para obtener un mejor rendimiento y para centrar el uso de procesador en las características de servidor.
Versiones de Windows XP:
Windows XP 64 Bits: Uso en procesadores de 64 bits.
Windows XP Media Center Edition
Windows XP Tablet PC Edition: Tablet PC
Windows XP Embedded: ATM, terminales.
Windows Fundamentals for Legacy PCs: Versión simplificada de XP para uso en hardware obsoleto.
Windows XP Starter Edition: distribuida solo en determinados países, (una versión tan básica y limitada que por momentos se torna bastante impráctica al momento de utilizarla).
Versiones de Windows 2003 Server: Web Edition, Standard Edition, Enterprise Edition, Datacenter Edition
> Windows Vista, la era post XP de Microsoft
Windows Vista requiere de hardware realmente potente para ejecutarse en toda su dimensión o con una performance aceptable; incluso para las versiones mas "básicas" de este S.O.
Las versiones disponibles son varias: Enterprise, Business, Ultimate (para usuarios corporativos), Starter (solo comercializada en países emergentes, una versión reducida que si es similar a su homónima de Windows XP); y por último las versiones Home Basic y Home Premium (para usuarios domésticos).
> Linux: el futuro alternativo?
Cuando Linus Torvalds comenzó a trabajar sobre Minix para obtener su propio sistema operativo no tenía ni la más remota idea de lo que su trabajo llegaría a ser en todo el mundo. Este sistema operativo es totalmente distinto a los vistos anteriormente por un montón de razones. He aquí algunas de ellas:
* No fue desarrollado por una gran empresa:
Linus Torvalds desarrolló el kernel (el corazón) del sistema y luego liberó el código fuente del mismo en Internet para que cualquier programador que se animara pudiera modificarlo y agregarle lo que quisiera. Así, el Linux que hoy se conoce fue creado por cientos de programadores "libres" alrededor del mundo y no por una empresa.
* Es gratis y abierto:
Todo el sistema operativo es totalmente gratuito (al igual que muchísimos de sus programas), si posee una conexión a Internet es posible bajarlo a su máquina. Lo que algunas empresas hacen es "empacar" el sistema y algunos programas y grabarlos en CD’s, que junto con algún manual es lo que luego "venden". Esto se conoce como Distribuciones.
Además, junto con el sistema vienen los códigos fuentes del mismo (y de algunos programas) para que pueda ser modificado a gusto del usuario (si este es un programador experimentado), es por esto que se dice que es "abierto".
* Nació a partir de otro sistema operativo:
Es una modificación del sistema Minix, que a su vez nació como una "reducción" de UNIX, "el único sistema operativo verdadero, a partir del cual se crearon los demás" (incluido DOS) según la opinión de muchos Hackers.
Este sistema operativo es el elegido por las empresas que proveen acceso a Internet, debido a su gran estabilidad y eficiencia. Además, posee un muy buen manejo de redes y seguridad, lo que está haciendo que muchas empresas e instituciones (escolares sobre todo) lo tengan en cuenta para reemplazar sus sistemas actuales.
En un principio, Linux también era una "pantalla negra" en modo texto y muy poco intuitivo (al igual que DOS, al igual que UNIX). Pero desde hace un tiempo se desarrollaron entornos gráficos (varios: KDE, Gnome, etc.) que no tienen nada que envidiarle a Windows 95/98 y que hacen que más usuarios (menos experimentados) se "animen" a usarlo.
Por lo anterior y el gran auge de Internet este es el sistema operativo que más crecimiento ha tenido en los últimos años, y el que se perfila quizá como una alternativa válida para el futuro.
Algunas distribuciones de Linux conocidas: Red Hat, Debian, Fedora, Gentoo, Mandriva, Rxart, Slackware, Suse, Ubuntu, Kubuntu
> Conclusión
Sin el sistema operativo nada funcionaria... por lo tanto no cabe mucho mas que acotar. Solo es de esperarse que la evolución se mantenga y quizás avizorar mas alternativas a nuestro nunca tan bien ponderado y muchas veces vilipendiado “Windows”.
Etiquetas:
inf324,
informatica,
sistemas operativos,
uasd
martes, 16 de marzo de 2010
martes, 2 de marzo de 2010
Bibliografia
Datos del Estudiante: | Aura Madera, DA-4074 auramadera@gmail.com 22-02-10; 03:03pm |
Datos de la Asignatura: | Inf. 324, Sistemas Operativos, Sec: 01, 2010-1 |
Datos de la Actividad: | Bibliografia |
Titulo del Libro: | Sistemas Operativos, Teoria y Practica. |
Autor del Libro: | P. Martinez, M. Cabello, J.C. Diaz Martin. |
Portada del Libro: | Portada |
Datos del Estudiante: | Aura Madera, DA-4074 auramadera@gmail.com 22-02-10; 03:03pm |
Datos de la Asignatura: | Inf. 324, Sistemas Operativos, Sec: 01, 2010-1 |
Datos de la Actividad: | Bibliografia |
Titulo del Libro: | Sistemas Operativos. Tercera Edicion. |
Autor del Libro: | Ida M. Flynn y Ann Mclver Mchoes |
Portada del Libro: | Portada |
Datos del Estudiante: | Aura Madera, DA-4074 auramadera@gmail.com 22-02-10; 03:03pm |
Datos de la Asignatura: | Inf. 324, Sistemas Operativos, Sec: 01, 2010-1 |
Datos de la Actividad: | Bibliografia |
Titulo del Libro: | Sistemas operativos: conceptos y diseño |
Autor del Libro: | Milan Milenkovic,Javier Corella Díaz |
Portada del Libro: | Portada |
CAMBIOS EN BLOG
durante los próximos meses que me tomara el semestre utilizare mi blog para compartir la clase que realizare en el transcurso que tomare la asignatura sistemas operativos.....
Suscribirse a:
Entradas (Atom)