Un Proyecto Informático lo componen un conjunto de tareas independientes cuyo objeto es la realización de un software que automatice el sistema de Información requerido por el usuario.
Un proyecto nace a partir del momento en que se formulan sus necesidades. La persona que se vaya a encargar de su dirección tiene el deber de estudiarlas con los usuarios (clientes) y hacer el estudio de viabilidad en sus dos principales vertientes:
* Técnica
* Económica
Se debe llevar a cabo una previsión para realizar la determinada aplicación de software en una fecha prevista y ponerlo en marcha con recursos limitados tales como materiales, programas y personas que no posean necesariamente ni el mismo lenguaje ni los mismos objetivos laborales.
Las razones del fracaso de un proyecto informático, aparte de las citadas en las archifamosas leyes de Murphy, son:
* Ausencia del estudio de viabilidad para ajustarse a unas necesidades claramente explicitadas y comprendidas.
* Especificaciones vagas, incompletas o incluso cambiantes.
* Falta de utilización de herramientas adecuadas para poder validar el comportamiento del sistema en el futuro, donde es necesario disponer de una buena herramienta de simulación.
* Mala estimación de costes.
* Reparto inadecuado de las tareas entre los miembros del equipo.
* Ausencia o mal seguimiento que se llevan a cabo en momentos inoportunos o que no se ajustan a la realidad.
Ante este sombrío panorama no debemos desanimarnos ya que se puede tener la falsa impresión de que el más mínimo error nos va a llevar al fin prematuro del proyecto.
Afortunadamente, esto es solo una impresión (presuponer de antemano lo que va a ocurrir), pero existen técnicas para llevarlo a buen puerto y es conveniente que al realizarlo por primera vez éste sea supervisado por una persona experta, que debe comprobar que se van cumpliendo todas y cada una de las etapas.
A lo largo de mi vida profesional he dirigido un número suficiente de proyectos para poder permitirme, humildemente claro, el aconsejar los pasos a seguir, así como las decisiones a tomar si algo sale mal.
Todo ello es muy subjetivo porque también hay que contar con la preparación de la persona que lo vaya a desarrollar, así como una serie de cualidades que no voy a acometer en estos momentos, ya que no es el propósito que se persigue con este articulo.
Más bien se trata de proveer de las técnicas o conocimientos de base indispensables para dirigir un proyecto informático (este término esta utilizado para reducir el campo sobre el tema que se toca).
Un proyecto consta de varias fases básicas, desde que se lanza y formaliza la idea de automatización (se le designa con el nombre de informatización) hasta su implantación.
Vistas de página en total
martes, 31 de mayo de 2011
Ideas de empresas
1) Proyecto de bicicleta a disposición de los habitantes de Santiago como el Velib' en París
2) Exportar productos famosos de Francia (baquette, queso...)
3) Desarrollar un restaurante muy famoso a lo largo del mundo.
4) Desarrollar una empresa que permite a otras empresas de desarrollarse ( fuerza de venta...)
2) Exportar productos famosos de Francia (baquette, queso...)
3) Desarrollar un restaurante muy famoso a lo largo del mundo.
4) Desarrollar una empresa que permite a otras empresas de desarrollarse ( fuerza de venta...)
martes, 17 de mayo de 2011
jueves, 5 de mayo de 2011
Tema para el solemne
Tema 1
Conceptos basicos de la gestion del conocimiento
Cuadro de las principales definiciones de la gestion del conocimiento
Crear una propia definicion de gestion del conocimiento
El proceso de la gestión del conocimiento
Conocimiento tacito y conocimiento explicito
El capital intelectual
Tema 2
Tecnologia de informacion e internet
Desarrollo del internet
Web 1.0 y sus características
Web 2.0 Ana garcia
http://www.slideshare.net/annags/94-aplicaciones-educativas-20
Conceptos basicos de la gestion del conocimiento
Cuadro de las principales definiciones de la gestion del conocimiento
Crear una propia definicion de gestion del conocimiento
El proceso de la gestión del conocimiento
Conocimiento tacito y conocimiento explicito
El capital intelectual
Tema 2
Tecnologia de informacion e internet
Desarrollo del internet
Web 1.0 y sus características
Web 2.0 Ana garcia
http://www.slideshare.net/annags/94-aplicaciones-educativas-20
martes, 3 de mayo de 2011
FISICA CUANTICA
La mecánica cuántica es la última de las grandes ramas de la física. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar lo que nos rodea, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría electromagnética generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Pues bien, usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica daba infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos.
Es en el seno de la mecánica estadística donde nacen las ideas cuánticas en 1900. Al físico Max Planck se le ocurrió un truco matemático: que si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua se dejaba de obtener un infinito como resultado, con lo que eliminaba el problema y, además, el resultado obtenido concordaba con lo que después era medido. Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de cuantos de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín por el científico alemán Max Planck.
La idea de Planck hubiera quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quién completó en 1905 las correspondientes leyes de movimiento con lo que se conoce como teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica. Usó este punto de vista llamado por él “heurístico”, para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis de Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, (a la que llamó momentum), y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las "ondas de materia", cuya existencia había propuesto de Broglie y varios experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre, indeterminación o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.
Desarrollo histórico
Artículo principal: Historia de la mecánica cuántica
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:
![]()
Fig. 1: La función de onda de un electrón de un átomo de hidrógeno posee niveles de energía definidos y discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a densidades elevadas de probabilidad de encontrar el electrón en dicha posición.
Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que puede ser localizado en una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias relacionadas pueden ser correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de la materia condensada, la química cuántica y la física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.
Suscribirse a:
Comentarios (Atom)