Archivo para 2011


Es una compensación a la salida de un parque eólico, dado que el mismo hecho de hacer esto, el control de la transmisión de potencia tienen que tenerlo en cuenta. Las oscilaciones de potencia y el colapso del voltaje puede estar presentes. En la figura de la presente entrada se muestra una posible solución el cual usa thyristor-controlled series compensation (TCSC) [en buen cristiano: compensación en serie controlado por tiristores] a la salida del parque eólico. El TCSC cambia el valor del capacitor equivalente por conexión/desconexión del inductor conectado paralelamente. De esta forma, una capacitor variable puede ser obtenido y puede ser ajustado para incrementar la estabilidad dinámica de la transmisión de potencia, mejorando la regulación del voltaje y el balance de potencia reactiva, y control de flujo entras las líneas de la red. Los casos posibles de funcionamiento se presentan en la siguiente figura:

Se hizo el modelamiento de esta configuración y luego la simulación que puede ser modificada según lo que se desea analizar, ambos en Matlab/Simulink, lográndose un resultado equivalente al mostrado en la segunda figura variando obviamente el ángulo, el resultado de la simulación se da en la siguiente figura:

Anuncios

Este sistema, también llamado SVC Light por ABB, es basado en VSC, el cual es usado como generador de potencia reactiva. El VSC usa dispositivos de electrónica de potencia tales como el IGBTs, IGCTs o GTOs., y ellos también puede también ser configurados como convertidores multinivel bidireccionales. Como se aprecia en la figura de la presente entrada, el VSC es conectado a la red para inyectar o absorver potencia reactiva a través de un inductor X. Este sistema es deseable para mitigar en eventos transitorios y estado estable. Comparados con SVCs, STATCOMs proveen fácil respuesta, menos perturbaciones, y mejor performance en reducidos niveles de voltaje.

Se hizo el modelamiento simple y la simulación en Matlab/Simulink y se obtuvo lo siguiente:


La figura ilustra una unidad de generación eólica conectada a un red eléctrica a través de una impedancia equivalente de cortocircuito Z_{k}. El voltaje de la red eléctrica es asumida como el valor infito del busbar y el voltaje del punto de común acoplamiento (PCC) son U_{s} y U_{g}, respectivamente. Variaciones de voltaje causadas por fluctuacion de la generación eólica pueden causar problemas de calidad de voltaje. Entonces acá lo importante es calcular la diferencia entre U_{s} y U_{g}.

Se utilizo las ecuaciones para este caso, se modeló en Matlab/Simulink y se obtuvo el siguiente resultado del cual se puede modificar para casos particulares a analizar:


Se refiere a la ventas baratas de energía durante períodos de baja demanda y descargas de energía durante el período de alta demanda. Acomoda la generación de las renovables a momentos de alta congestión de la red por el almacenamiento de energía y la transmisión de ésta cuando no hay congestión.

Los indicadores de performance, sus valores y una información adicional de cada uno de ellos se muestran en la figura de la presente entrada. Se tiene el costo de capital, costos de operación y mantenimiento, duración de la descarga. 

Los costos de capital esta por US$ 1500 por kW ó US$ 500 por kWh, de donde US$ 250 por kWh es para el conjunto de empresas que no reflejan el valor total de las tecnologías de almacenamiento y de US$ 500 por kWh es una suficiente medido para hacer las tecnologías de almacenamiento competitivas con las plantas de generación a turbinas de gas.  Los costos de operación y mantenimiento son entre US$ 250 – US$ 500 por MWh, bajos costos de operación y mantenimiento pueden permitir que las tecnologías de almacenamiento sean ofrecidas a las mejores economías para “electric enery time shift”, creando un gran mercado para estas tecnologías. Duración de la descarga entre 2 – 6 horas, pero hay que considerar que el precio de la electricidad puede fluctuar en varias horas. La eficiencia es esta entre 70% – 80%  que es una buena base para “electric energy time shift”, si la eficiencia del sistema es solo 70%, el sistema de almacenamiento debe incorporar otros beneficios para tener un valor suficiente. El tiempo de respuesta de 5 – 30 minutos, pero repetimos que el precio de la electricidad puede permanecer bajo u alto por varias horas, el cual disminuye la necesidad para una respuesta instantánea desde un dispositivo de almacenamiento, sin embargo, tecnologías con rápida respuesta pueden dar una respuesta en la frecuencia y carga simultaneamente con el “time shifting”.


Sirve cuando hay cambios de la salida de potencia en respuesta al balance cambiante entre el suministro de energia y la demanda. También, opera en entrada y salida parcial sin comprometer performance o incrementar emisiones, además; responde rápidamente al incremento o decremento de cargas.

Los indicadores de performance, sus valores y una información adicional de cada uno de ellos se muestran en la figura de la presente entrada. Se tiene el costo de capital, costos de operación y mantenimiento, duración de la descarga.

Los costos de capital van desde los US$ 1500 por kW ó US$ 500 por kWh para 3 horas de duración, que es un costo adelantado de la unidad. Costo de operación y de mantenimiento va por los US$ 500 por MWh algo alto pero aceptable. La duración de la descarga es desde 2 a 6 horas.


Demoras o retrasos llevan a la necesidad de actualizar la infraestructura de transmisión y distribución usando cantidades relativamente pequeñas de almacenamiento. También reduce la carga existente en los equipos para extender la vida del equipamiento.

Los indicadores de performance, sus valores y una información adicional de cada uno de ellos se muestran en la figura de la presente entrada. Tenemos el costo, la duración de la descarga, la capacidad, la fiabilidad y el tiempo de vida del sistema. 

El costo es lograr sea US$ 500 por kWh, el costo de transmisión y distribución retrasada o substituida es comparable o menor que los costos de transmisión; sin embargo, debido a que el almacenamiento puede ser intencionamente incremenado mientras que en la transmisión las actualizaciones son grandes y por lo tanto, el almacenamiento tiene una ventaja en los costos. La duración de la descarga de 2 – 4 horas, que permiten compensar fluctuaciones en la demanda de electricidad. La capacidad anda entre 1 MW – 100 MW, sin embargo, las líneas de transmisión necesitan capacidades de almacenamiento mayores a 100 MW. Fiabilidad del 99.9%, dado que para los fines enmarcados en estas aplicaciones se necesita tener un sistema de almacenamiento tan fiable como las líneas de transmisión. Tiempo de vida del sistema de unos 10 años.


Estas aplicaciones lo que tratan es de compensar fluctuaciones de variaciones de corta duración de las salida de la generación renovable.

Los indicadores de performance, sus valores y una información adicional de cada uno de ellos se muestran en la figura de la presente entrada. Se tiene la eficiencia “roundtrip”, el tiempo de vida del sistema, la capacidad y el tiempo de respuesta.

La “roundtirp efficiency” de entre 75% a 90%, que consiste en la eficiencia medida en el transformador a la salida de energía dividida por la energía de ingreso.  El tiempo de vida del sistema está en 10 años, y que varían por la tecnología y el número de ciclos al año, pero unos 10 años sometido a alto ciclaje ser un suficiente tiempo de vida. La capacidad del sistema está entre 1 MW a 20 MW, en donde, la capacidad necesaria de una tecnología de almacenamiento puede depender del tamaño y la intermitancia de la operación de las renovables (por ejemplo, una gran granja eólica con períodos de fuerte viento y nulo viento tiene un alto potencial para contribui a la red pero ello podría ser más efectivo con almacenamiento). El tiempo de respuesta es de 1 – 2 segundos, dado que la respuesta rápida permite al almacenamiento responden a los cambios en la operación de las renovables para minimizar las fluctuaciones de la generación.


 

Estas implementaciones han sido hechas para reconciliar momentaneamente las diferencias entre el suministro y la demanda en un área determinada y para, mantener la frecuencia de la red.

Los indicadores de performance, sus valores y una información adicional de cada uno de ellos se muestran en la figura de la presente entrada.  Se tiene el costo del servicio, el tiempo de vida útil del servicio, el tiempo de respuesta y la eficiencia “roundtrip”.

En referencia al costo del servicio es de US$ 20 MW pro hora, pero también menciona que el costo actual de los servicios de regulación de frecuencia y área es de uno US$ 50 por MW por hora. El ciclo de vida de los sistemas está basado entre 4500 a 7000 ciclos por año. La duración de la descarga es desde 15 minutos a 2 horas y las tecnologías de almacenamiento pueden permitir descargas y descargas simétricas. El tiempo de respuesta es menor a 1 segundo, dado que estas aplicaciones intentan cubrir diferencias momentaneas, entonces se han desarrolado diseños que les permiten responder a señales de la red tal rápido como tecnológicamente sea posible. Y la “roundtirp efficiency” de entre 75% a 90%, que consiste en la eficiencia medida en el transformador a la salida de energía dividida por la energía de ingreso.


En la actualidad se ha desarrollado un gran número de aplicaciones que involucran potencias y energía de distinta magnitud como se puede observar en la figura y que además, se da a saber el tipo de tecnología utilizada. Dicha terminología está en la figura de la entrada anterior. No se puede decir que hay una tecnología dominante tanto a modo general, como por ubicación en la escala de potencia y energía; pero tal parece que hay mayor cantidad de aplicaciones con baterías comunes de ácido, volantes de inercia de alta velocidad y otros tipos particulares de energía… esto para instalaciones de gran potencia y energía, en donde se centra lo que es R&D, porque las aplicaciones de menor potencia, va condicionado – si es ya producción en serie –  por el mercado, el posicionamiento de empresas, etc.


Este es un resumen sobre las tecnologías de almacenamiento de energía basado en la figura que se muestra en la presente entrada.

Hay varias columnas para designar la tecnología de almacenamiento, su principal ventaja (relativa), su principal desventaja (relativa), si son para aplicaciones de potencia y energía.

Entre las tecnologías de almacenamiento estan los volantes de inercia de alta velocidad, capacitores electromecánicos, baterias de ácido tradicional, avanzadas baterias de carbón, baterías de sulfuro de sodio, baterías de iones de litio, baterías de bromuro de zinc, baterías de vanadio redoz, almacenamiento de energía por compresión de aire, almancenamiento por hidro-bombeo.

Entre las diferentes ventajas, hay quienes poden una alta potencia, largo ciclo de vida, bajo costo de capital, alta densidad de energía, capacidad independiente de potencia y de energía. Entre las diferentes desventajas se tiene hay baja dendidad de energía, ciclos de vida limitado, elevados costos, requerimiento para arrancar en alta temperatura, necesidad de reforzar los circuitos de control, requerir de sitios especiales.

En lo que se refiere a las aplicaciones de potencia y energía, algunas tecnologías son totalmente posibles y razonables, otras razonables para alguna aplicación en especial, otras factibles pero no muy prácticas y económicas, y otras  no factibles o económicas. Los costos van relacionados a lo que el usuario puede pagar por la implementación de tal tecnología.


Muchas aplicaciones del almacenamiento de energía se tiene en la actualidad, unas más o menos implementadas, unas más o menos desarrolladas, pero es un tema en constante desarrollo. Algunas tienen que ver con:

  • Sirve como un amortiguador de precios, es decir, es un elemento para suministrar energía cuando los costos de electricidad son altos, como por ejemplo: en las horas punta.
  • Reduce o disminuye la necesidad de instalar nuevas generadoras.
  • Realiza un seguimiento de la carga, alternando la respuesta ante variaciones entre el suministro de electricidad y la demanda.
  • Permite tener una capacidad de reserva.
  • Realiza un soporte del voltaje.
  • Realiza también un soporte y mejor performance de los sistemas de transmisión y distribución.
  • Da una asistencia a lo que es la integración de fuentes solares y eólicas reduciendo la volatilidad de la salida y su variabilidad, mejorando la calidad de la energía, reduciendo los problemas de congestión, entre otras.

Y entre otras aplicaciones que pueden ver en la figura que he colocado en este post.

 


ASAMBLEA NACIONAL DE RECTORES

COMISIÓN DE COORDINACIÓN INTERUNIVERSITARIA

V  CONCURSO NACIONAL DE TESIS DE POSGRADO DE MAESTRÍA Y DOCTORADO

PREMIO ANR – 2011

MAESTRÍA

CIENCIAS

Primer puesto

Nombre:  MG. JORGE LUIS MÍREZ TARRILLO

Título: Simulación de una Microgrid de voltaje continuo/ alterno alimentado con fuentes solar, eólica, baterías y convencional

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Agradezco a la Asamblea Nacional de Rectores por tal reconocimiento.

“La ceremonia de premiación se llevará a cabo el día jueves 15 de diciembre de 2011 a las 10 am, en la sala N° 2 del auditorio;  y en caso de que  no lleguen las tarjetas de invitación por temas del currier, ustedes pueden venir con sus familiares y amigos”, es lo que han escrito los organizadores, quedan invitados.

La dirección es:

ASAMBLEA NACIONAL DE RECTORES
COMISIÓN DE COORDINACIÓN INTERUNIVERSITARIA
Calle Aldabas Nº337
Las Gardenias – Surco
Lima – 33-Perú

Como referencia queda cerca a la Universidad Ricardo Palma, y, cerca a la intersección de la Vía de Evitamiento con la Av Benavides (Surco)…

Pueden visitar: http://www.anr.edu.pe


Generalmente los modelos de matemáticos de simulación llevan en consideración: (i) las características de los elementos del sistema, (ii) las variables de entrada, (ii) las medidas de performance del sistema; y (iv) una relación funcional de los elementos de los sistemas y del sistema como del medio externo. Normalmente, los lenguales y paquetes de simulaciòn permiten llevar en cuenta los paràmetros.  Siendo así, el desarrollo de un modelo sigue los siguientes paràmetros:

  1. Reconocer el problema:
    Significa identificar todos los datos y aspectos que es pretendido estudiar para que estos sean considerados en la formulaciòn del modelo.
  2. Formular el problema:
    Implica en: (i) seleccionar los elementos del sistema global de interés en el estudio a ser realizado; (ii) fijar la frontera del nuevo sistema y cual engloba los elementos seleccionados, (ii) definir los objetos del estudio, (iv) seleccionar el conjunto de paràmetros de medida de performance del sistema, (v) establecer el horizonte de tiempo, y (vi) identificar las espectativas del usuario final.
  3. Obtener y analizar datos del sistema:
    Esto implica que valores de las variables de entrada, paràmetros del sistema y medidas de performance deben ser levantados. Por medio del anàlisis estadìstico, los datos seràn caracterizados. En el caso de las variables aleatorias podrà ser definido tipos de distribuciones màs apropiadas para describirlas.
  4. Formular y desarrollar el modelo:
    En esta fase deberá ser formulado el modelo conceptual por medio de representación gráfica – ejemplo, flujogramas; y en secuencia o modelo conceptual deberà ser traducido en relaciones lògicas y matemàticas para que este venga a tomar la forma de modelo computacional (programa de computadora).
  5. Verificar y validar el modelo:
    Verificar significa certificar si las rutinas computacionales implementadas generan los valores esperados. Validación consiste en la comparación de los datos generados por el modelo como los obtenidos del sistema real. Por lo tanto, deben ser utilizados procedimientos estadìsticos.
  6. Documentar el modelo:
    Durante el desarrollo del modelo el programador debe elaborar relatorios que contenga detalles como: los objetivos,  las suposiciones consideradas, y detalles de desarrollo de las rutinas computacionales. Esto facilita procedimientos futuros, cuando haya necesidad de readecuación del modelo.
  7. Definir tipos de experimentos:
    Hay que establecer para cuales condiciones de los valores de las variables de entrada y parámetros del sistema los resultados generados por el modelo son confiables.
  8. Establecer las condiciones de uso.
    Por medio de los experimentos realizados es definida para cuales condiciones es aplicable el uso del modelo.

Una vez realizados las etapas arriba citadas el modelo de simulación puede ser utilizado para conducción de experimentos tipo: anàlisis de sensibilidad, comparación de escenarios, optimización, o simulación de Monte Carlo.

Un análisis de sensibilidad consiste en alterar el valor de uno o más parámetros del modelo y certificar el impacto sobre los valores de las variables de salida. Por ejemplo, en el caso de una unidad industrial podrìa ser verificado el impacto sobre la performance del sistema al ser aumentada o reducida la productibidad en una operación unitaria dada.

Una comparación de escenarios es aplicada cuando lso objetivos son hacer una comparaciòn de las diversas posibles configuraciones. En esa comparación se certifica a que mejor atiende a las espectativas del que toma las decisiones.

Una optimización tiene por objetivo, por medio del modelo, encontrar una configuración y/o un forma de operación del sistema que trace un mejor dempeño. Lo cual puede ser dado en términos económicos y/o técnicos.

Una simulación de Monte Carlo es aplicada a los modelos del tipo estocástico. Para tanto, es necesario proceder a varias corridas con el modelo y, en seguida, realizar análisis estadístico de los resultados generados. De este modo, para una variedad dada serà posible determinar las probabilidades de ocurrencia de valores, bien como , el intervalo de confianza.


Hola buenas, agradeciendo sus visitas en este mes de noviembre 2011. Hemos superado el record histórico que teniamos por varios meses. El blog requiere algo de tiempo para hacer las entradas, pero ahi trato de cumplir. También agradezco a todos aquellos que me escriben por asesoría en sus tesis, trabajos de investigación o empresas… muchas gracias también…


  • Formulación del problema a ser simulado. Todo estudio debe comenzar por la definición del problema. Si las definiciones son realizadas por el usuario que es´ta con el problema, o el proyectista que debe de asegurarse que el problema fue efectivamente entendido. Si las definiciones del problema son respondidas por el proyectista, es importante que el usuario también estéa de acuerdo con la formulación. Hay ocasiones que el problema precisa ser reformulado a medida que el estudio evoluciona.
  • Definición de los objetivos y planificación general. Los objetivos involucran las preguntas que precisan ser respondidas por la simulación, En este punto se debe evaluar y confirmar que la simlación es una técnica adecuada para tratar el problema y, como se planea atender los objetivos previstos. Si la simulación es apropiada, el planeamiento general debe incluir una especificación de las alternativas que deben ser consideradas, en un criterio para comparar los resultado. Debe especificar también las estrategias para el estudio en términos de los recursos involucrados, el costo del estudio, el número de días necesarios para completar cada fase y, los resultados previstos al final de cada etapa.
  • Concepción del modelo. Una tarea de modelamiento involucra cierta habilidad para extraer las características escenciales de un problema, para selccionar y modificar las suposiciones que caracterizan el sistema, y para destacar los resultados de interes. Debe de comenzar con modelos simples, y entonces, a partir de éste, llegar a modelos más complejos. La complejidad del modelo no debe ser mayor que aquella requerida para alcanzar los objetivos del estudio. La violación de este principio aumenta los costos de la construcción del modelo y de la ejecución del modelo. No es necesario tener una correspondencia biunívoca entre el modelo y el sistema real. Apenas la escencia del sistema real es necesaria en el modelo. Y es aconsejable involucrar al usuario en la concepción del modelo. Esto aumenta la calidad del modelo resultante y la confianza del usuario en la aplicación del modelo.
  • Colección de datos. Hay una relación entre el concepto del modelo y los datos de entrada necesarios. Al variar la complejidad del modelo, los datos necesarios también pueden mudar. Como la colección de datos puede involucrar mucho tiempo, es recomendable iniciar esta fase lo más antes posible, generamente junto con las etapas iniciales de contrucción del modelo. Los objetivos del estudio definen los tipos de datos a ser colocados.
  • Traducción del modelo. Los sistemas del mundo real pueden resultar en modelos que involucran un gran cantidad y variedad de informaciónes del mismo, los modelos precisan ser traducidos para un formato adecuado para ser tratados en un computador. El proyectista precisa decidir si editará el modelo en un lenguaje de simulación o si usuará “paquetes” de softwares específicos. Los lenguajes de simulación son generalmente más poderosas y más flexibles que los “paquetes” para fines específicos. En tanto, si el problema es posible de resolverlo con el uso de “paquetes”, el tiempo de construcción del modelo será ciertamente menor. Además de esto, los paquetes vienen acrecentando las características que aumentan su fflexibilidad.
  • Verificación?. La verificación en general es parte del proceso de edificación del modelo y programación en el computador preparándolo para la simulación. Se debe verificar si el programa de computador ejecuta el modelo conforme a lo esperado. Modelos complejos involucran mayores riesgos en la traducción para la computadora y por esto se debe tener mayor cuidado en estos casos.
  • Validación?. La validación es una confirmación de que un modelo es una representación adecuada del sistema real. Validación es generalmente el resultado de la calibración del modelo, esto es, un proceso iterativo de comprar datos del modelo con el comportamiento del sistema real, usando las discrepancias entre los dos para mejorar el modelo. Este proceso es repetido hasta que el modelo sea juzgado de aceptable.
  • Proyecto del experimento. Las alternativas y/o escenarios que serán simuladas deben ser detalladas. En general, la decisión de cuales alternativas serán simuladas es función del histórico de los escenarios previamente obtenidos y analizados. Para cada escenario que es simulado, decisiones precisan ser tomadas sobre la magnitud de los valores de inicialización, del tiempo de simulación, y del número de repeticiones que deben ser hechas.
  • Ejecución del modelo y análisis. La ejecución del modelo y su subsecuente análisis son realizadas y utilizadas para estimar medidas de desempeño para el sistema que está siendo simulado.
  • Nueva ejecución?. Basado en el análisis de las ejecuciones realizadas, se determina si son necesarios experimentos adicionales y si nuevas especificaciones deben ser consideradas.
  • Reportes. Existen dos tipos de documentación: del programa y del experimento. La documentación del programa (del modelo de simulación) e imprescindiblemente cuando el programa es usado nuevamente y, es fundamental para la confianza de los usuarios del sistema que pueden tomar decisiones basadas en lso datos generados. Los reportes de los experimentos forman una “historia” del proyecto de simulación. Los resultados de los análisis deben ser presentados de forma clara y concisa en un reporte final. Esto permite que los usuarios del modelo relean la formulación final, los criterios para las alternativas que fueron comparadas, los resultados, de experimentos, y la solución recomendada.
  • Implementación. El desarrollo de la fase de implementación depende de como fueron conducidos los pasos anteriores. Si el usuario estaba involucrado durante el proceso de edición del modelo y entiende la naturaleza del modelo y sus salidas este podrá contribuir efectivamente para la fase de implementación.

 


La simulación de sistemas con eventos discretos es propia para el análisis de sistemas en el cual el estado (discreto) de las variables muda apenas como una ocurrencia de eventos (considerados instantáneos). Los modelos de simulación son analizados por “métodos numéricos” en vez de métodos análitos. Esto es, en vez de métodos análiticos que emplean el razocinio deductivo/matemático para resolver un modelo, consideranse métodos numéricos que procedimientos computacionales para ejecutar kis modelos matemáticos.

Los modelos cuando son ejecutados generan una historia artificial del sistema basado en las suposiciones asumidas. Resultados y observaciones son entonces coleccionados para ser analizados y estimar el desempeño del sistema real.

Como los modelos de simulación del mundo real son relativamente complejos, y la cantidad de información manipulada es muy grande, generamente se utilizan computadoras para ejecutar la simulación.


Un modelo, en ingeniería, puede ser definido como una representación de un sistema con la intención de estudiarlo. Para la mayoría de los casos, es necesario solamente considerar los aspectos del sistema que afectan ese estudio. Estos aspectos son representados en el modelo del sistema, y éste modelo, por definición, es una simplificación del sistema. Por otro lado, el modelo debe ser suficientemente detallado para permitir conclusiones válidas sobre el sistema real. Diferentes modelos de un mismo sistema pueden ser necesarios de acuerdo con el objetivo del estudio.

Los modelos deben considerar la representación de todos los componentes de un sistema como las entidades, atributos, actividades, eventos y estados. Es general, un modelo para un estudio específico debe contener solamente los componentes que son relevantes para el caso.

Los modelos pueden ser clasificados como matemáticos o físicos. Un modelo matemático usa notación simbólica y relaciones matemáticas para representar un sistema. Un modelo de simulación es un tipo particular de modelo matemático de un sistema.

Los modelos pueden ser además clasificados como instantáneos y dinámicos, determinísticos o estocásticos y, discretos o continuos (existen también otras clasificaciones que pueden ser consideradas).

Los modelos dinámicos representan sistemas y como ellos se comportan en función de los eventos pasados y con el correr del tiempo. Los modelos instantáneos representan sistemas y como ellos se comportan en función apenas de los eventos actuales, esto es que no considera los eventos pasados.

Los modelos determísticos tienen un conjunto conocido de entradas, los cuales resultarán e un único conjunto de salidas. Los modelos estocásticos poseen uno o más variables aleatorias como entrada que llevan a salidas aleatorias. Así mismo, las salidas de la simulación estocástica deben ser tratadas como estimaciones estadísticas de las características reales de un sistema.

Los modelos discretos y continuos son definidos de acuerdo con las mismas consideracónes que definen si un sistema es discreto o continuo. Con todo, un modelo de “simulación discreta” no es usado apenas para modelar un sistema discreto, en un modelo de “simulación continua” y exclusivo para modelar sistemas continuos. Los modelos de simulación son de hecho muy útiles para el análisis en conjunto de fenómenos discretos y contiuos. Una selección de cuales de ellas usar es función de las características del sistema y del objetivo del estudio.


Para modelar un sistema, es necesario asimilar el concepto de “sistema” y de “frontera del sistema”. Un “sistema” es definido como un grupo de objetos que están enlazados de acuerdo a una relación de interdependencia para perseguir ciertos objetivos.

Un sistema es muchas veces afectado por cambios que ocurren fuera del sistema. Estos cambios ocurren, por lo tanto, en el llamado ambiente externo del sistema. En modelamiento de sistemas, es necesario definir la frontera entre el sistema y su ambiente. Esta definición depende de la finalidad del estudio.

En el caso de un sistema industrial, por ejemplo, los factores que controlan la llegada de órdenes de fabricación pueden ser considerados como una influencia externa a la fábrica y, por lo tanto, parte del ambiente exterior. En el caso contratio, si el efecto de la demanda en la variación de la producción fuera un factor decisivo para el proceso, habrá claramente una relación entre la oferta de la fábrica y la demanda, y esta relación precisa ser considerada como una actividad del sistema.

Para entender y analizar un sistema, ciertos términos son predefinidos:

  • Entidad es un objeto de interés en un sistema.
  • Atributo es una propiedad de la entidad.
  • Actividad representa una acción que ocurre dentro del sistema.
  • Evento es una ocurrencia que altera el estado del sistema (o evento puede ser entendido como una actividad primaria e instantanea que no admite descomposición).
  • Estado describe una situación del sistema y es identificado por valores de sus variables en un instante determinado.

Una simulación es ventajosa cuando “imita” con mejor costo o menos recursos lo que acontece en un sistema real. Los datos de salida de una simulación deben corresponder directamente a las salidas que serían obtenidas del sistema real. En contraste con las técnicas analíticas, una simulación de modelos es “ejecutada” y a la vez debe ser resuelta. dado un conjunto particular de entradas el modelo es ejecutado y el comportamiento del sistema es estudiado. Este proceso de alteración de variables del modelo resulta en un conjunto de “escenarios” a ser avalados.

Las principales ventajas de la simulación son:

  • Nuevas políticas, procedimientos operacionales, reglas de decisión, flujos de información, procedimientos organizacionales, etc. pueden ser estudiados sin interferencia en las operaciones del sistema real.
  • Nuevos equipos, arreglos físicos, sistemas de transporte, etc. pueden ser testeados antes de que se invierta recursos en las adquisiciones mencionadas.
  • Hipótesis de como y porque ciertos fenómenos ocurren pueden ser avalados.
  • El tiempo puede ser comprimido y expandido, permitiendo que el fenómeno en estudio pueda ser acelerado o retardasdo.
  • “Cuellos de botella” donde las informaciones o materiales tienen sus flujos comprometidos pueden ser identificados.

Las principales desventajas son:

  • La construcción de modelos requieren un tratamiento especial. Puede ser considerado un “arte” que se aprende a lo largo del tiempo y que envuelve o “buen” uso de la experiencia.
  • Los resultados de la simulación pueden ser difíciles de interpretar. Como las salidas de la simulación pueden incluir variables aleatorias, no es trivial determinar si los resultados observados resultan de interrelaciones efectivas de las partes del sistema o si son fruto de la aleatoriedad del sistema.
  • Un modelamiento del sistema y un análisis de los datos pueden consumir mucho tiempo y muchos recursos. Por otro lado, economizar tiempo y recursos en el modelamiento y en el análisis pueden resultar en escenarios insuficientes para atender los objetivos.

En la defensa del uso de la simulación, las desventajas arriba citadas han sido minimizadas a través de los siguientes argumentos:

  • Programadores de sofwares de simulación tienen continuamente desarrollando paquetes que contienen un tipo de template de modelos pre concebidos en los cuales es necesario solamente definir los datos de la operación.
  • Muchos programadores de softwares tienen desarrollado paquetes con herramientas que facilitan el análisis de los datos de salida de la simulación.
  • Los avances en las plataformas computacionales permiten que una simulación sea realizada cada vez más rápidamente.

Una cada vez mayor disponibilidad de herramientas de simulación, una creciente capacidad computaciones y los avances en las metodologías de simulación han hecho de la simulación una de las técnicas más usadas y aceptadas en tareas de análisis y desenvolvimiento de sistemas.

Se considera que la simulación puede ser usada principalmente para las siguientes finalidades:

  • Estudiar las interacciones internas de un sistema complejo, o de un subsistema dentro de un sistema complejo.
  • Realizar alteraciones en las informaciones, en la organización y en el ambiente del sistema para observar los efectos.
  • Experimentar nuevos proyectos o nuevos procedimientos antes de implementarlas, y así estar preparados para lo que puede acontecer.
  • Identificar las variables más importantes de un sistema y como ellas interactúan a través del estudio de las señales de entrada y las salidas resultantes.
  • Verificar soluciones analíticas, siendo en el caso utilizado como un instrumento de validación.
  • Adquirir mayor conocimiento sobre el modelo de simulación y sobre el proceso de desenvolvimiento del modelo para mejorar el sistema.