Archivo para noviembre, 2011


  • Formulación del problema a ser simulado. Todo estudio debe comenzar por la definición del problema. Si las definiciones son realizadas por el usuario que es´ta con el problema, o el proyectista que debe de asegurarse que el problema fue efectivamente entendido. Si las definiciones del problema son respondidas por el proyectista, es importante que el usuario también estéa de acuerdo con la formulación. Hay ocasiones que el problema precisa ser reformulado a medida que el estudio evoluciona.
  • Definición de los objetivos y planificación general. Los objetivos involucran las preguntas que precisan ser respondidas por la simulación, En este punto se debe evaluar y confirmar que la simlación es una técnica adecuada para tratar el problema y, como se planea atender los objetivos previstos. Si la simulación es apropiada, el planeamiento general debe incluir una especificación de las alternativas que deben ser consideradas, en un criterio para comparar los resultado. Debe especificar también las estrategias para el estudio en términos de los recursos involucrados, el costo del estudio, el número de días necesarios para completar cada fase y, los resultados previstos al final de cada etapa.
  • Concepción del modelo. Una tarea de modelamiento involucra cierta habilidad para extraer las características escenciales de un problema, para selccionar y modificar las suposiciones que caracterizan el sistema, y para destacar los resultados de interes. Debe de comenzar con modelos simples, y entonces, a partir de éste, llegar a modelos más complejos. La complejidad del modelo no debe ser mayor que aquella requerida para alcanzar los objetivos del estudio. La violación de este principio aumenta los costos de la construcción del modelo y de la ejecución del modelo. No es necesario tener una correspondencia biunívoca entre el modelo y el sistema real. Apenas la escencia del sistema real es necesaria en el modelo. Y es aconsejable involucrar al usuario en la concepción del modelo. Esto aumenta la calidad del modelo resultante y la confianza del usuario en la aplicación del modelo.
  • Colección de datos. Hay una relación entre el concepto del modelo y los datos de entrada necesarios. Al variar la complejidad del modelo, los datos necesarios también pueden mudar. Como la colección de datos puede involucrar mucho tiempo, es recomendable iniciar esta fase lo más antes posible, generamente junto con las etapas iniciales de contrucción del modelo. Los objetivos del estudio definen los tipos de datos a ser colocados.
  • Traducción del modelo. Los sistemas del mundo real pueden resultar en modelos que involucran un gran cantidad y variedad de informaciónes del mismo, los modelos precisan ser traducidos para un formato adecuado para ser tratados en un computador. El proyectista precisa decidir si editará el modelo en un lenguaje de simulación o si usuará “paquetes” de softwares específicos. Los lenguajes de simulación son generalmente más poderosas y más flexibles que los “paquetes” para fines específicos. En tanto, si el problema es posible de resolverlo con el uso de “paquetes”, el tiempo de construcción del modelo será ciertamente menor. Además de esto, los paquetes vienen acrecentando las características que aumentan su fflexibilidad.
  • Verificación?. La verificación en general es parte del proceso de edificación del modelo y programación en el computador preparándolo para la simulación. Se debe verificar si el programa de computador ejecuta el modelo conforme a lo esperado. Modelos complejos involucran mayores riesgos en la traducción para la computadora y por esto se debe tener mayor cuidado en estos casos.
  • Validación?. La validación es una confirmación de que un modelo es una representación adecuada del sistema real. Validación es generalmente el resultado de la calibración del modelo, esto es, un proceso iterativo de comprar datos del modelo con el comportamiento del sistema real, usando las discrepancias entre los dos para mejorar el modelo. Este proceso es repetido hasta que el modelo sea juzgado de aceptable.
  • Proyecto del experimento. Las alternativas y/o escenarios que serán simuladas deben ser detalladas. En general, la decisión de cuales alternativas serán simuladas es función del histórico de los escenarios previamente obtenidos y analizados. Para cada escenario que es simulado, decisiones precisan ser tomadas sobre la magnitud de los valores de inicialización, del tiempo de simulación, y del número de repeticiones que deben ser hechas.
  • Ejecución del modelo y análisis. La ejecución del modelo y su subsecuente análisis son realizadas y utilizadas para estimar medidas de desempeño para el sistema que está siendo simulado.
  • Nueva ejecución?. Basado en el análisis de las ejecuciones realizadas, se determina si son necesarios experimentos adicionales y si nuevas especificaciones deben ser consideradas.
  • Reportes. Existen dos tipos de documentación: del programa y del experimento. La documentación del programa (del modelo de simulación) e imprescindiblemente cuando el programa es usado nuevamente y, es fundamental para la confianza de los usuarios del sistema que pueden tomar decisiones basadas en lso datos generados. Los reportes de los experimentos forman una “historia” del proyecto de simulación. Los resultados de los análisis deben ser presentados de forma clara y concisa en un reporte final. Esto permite que los usuarios del modelo relean la formulación final, los criterios para las alternativas que fueron comparadas, los resultados, de experimentos, y la solución recomendada.
  • Implementación. El desarrollo de la fase de implementación depende de como fueron conducidos los pasos anteriores. Si el usuario estaba involucrado durante el proceso de edición del modelo y entiende la naturaleza del modelo y sus salidas este podrá contribuir efectivamente para la fase de implementación.

 

Anuncios

La simulación de sistemas con eventos discretos es propia para el análisis de sistemas en el cual el estado (discreto) de las variables muda apenas como una ocurrencia de eventos (considerados instantáneos). Los modelos de simulación son analizados por “métodos numéricos” en vez de métodos análitos. Esto es, en vez de métodos análiticos que emplean el razocinio deductivo/matemático para resolver un modelo, consideranse métodos numéricos que procedimientos computacionales para ejecutar kis modelos matemáticos.

Los modelos cuando son ejecutados generan una historia artificial del sistema basado en las suposiciones asumidas. Resultados y observaciones son entonces coleccionados para ser analizados y estimar el desempeño del sistema real.

Como los modelos de simulación del mundo real son relativamente complejos, y la cantidad de información manipulada es muy grande, generamente se utilizan computadoras para ejecutar la simulación.


Un modelo, en ingeniería, puede ser definido como una representación de un sistema con la intención de estudiarlo. Para la mayoría de los casos, es necesario solamente considerar los aspectos del sistema que afectan ese estudio. Estos aspectos son representados en el modelo del sistema, y éste modelo, por definición, es una simplificación del sistema. Por otro lado, el modelo debe ser suficientemente detallado para permitir conclusiones válidas sobre el sistema real. Diferentes modelos de un mismo sistema pueden ser necesarios de acuerdo con el objetivo del estudio.

Los modelos deben considerar la representación de todos los componentes de un sistema como las entidades, atributos, actividades, eventos y estados. Es general, un modelo para un estudio específico debe contener solamente los componentes que son relevantes para el caso.

Los modelos pueden ser clasificados como matemáticos o físicos. Un modelo matemático usa notación simbólica y relaciones matemáticas para representar un sistema. Un modelo de simulación es un tipo particular de modelo matemático de un sistema.

Los modelos pueden ser además clasificados como instantáneos y dinámicos, determinísticos o estocásticos y, discretos o continuos (existen también otras clasificaciones que pueden ser consideradas).

Los modelos dinámicos representan sistemas y como ellos se comportan en función de los eventos pasados y con el correr del tiempo. Los modelos instantáneos representan sistemas y como ellos se comportan en función apenas de los eventos actuales, esto es que no considera los eventos pasados.

Los modelos determísticos tienen un conjunto conocido de entradas, los cuales resultarán e un único conjunto de salidas. Los modelos estocásticos poseen uno o más variables aleatorias como entrada que llevan a salidas aleatorias. Así mismo, las salidas de la simulación estocástica deben ser tratadas como estimaciones estadísticas de las características reales de un sistema.

Los modelos discretos y continuos son definidos de acuerdo con las mismas consideracónes que definen si un sistema es discreto o continuo. Con todo, un modelo de “simulación discreta” no es usado apenas para modelar un sistema discreto, en un modelo de “simulación continua” y exclusivo para modelar sistemas continuos. Los modelos de simulación son de hecho muy útiles para el análisis en conjunto de fenómenos discretos y contiuos. Una selección de cuales de ellas usar es función de las características del sistema y del objetivo del estudio.


Para modelar un sistema, es necesario asimilar el concepto de “sistema” y de “frontera del sistema”. Un “sistema” es definido como un grupo de objetos que están enlazados de acuerdo a una relación de interdependencia para perseguir ciertos objetivos.

Un sistema es muchas veces afectado por cambios que ocurren fuera del sistema. Estos cambios ocurren, por lo tanto, en el llamado ambiente externo del sistema. En modelamiento de sistemas, es necesario definir la frontera entre el sistema y su ambiente. Esta definición depende de la finalidad del estudio.

En el caso de un sistema industrial, por ejemplo, los factores que controlan la llegada de órdenes de fabricación pueden ser considerados como una influencia externa a la fábrica y, por lo tanto, parte del ambiente exterior. En el caso contratio, si el efecto de la demanda en la variación de la producción fuera un factor decisivo para el proceso, habrá claramente una relación entre la oferta de la fábrica y la demanda, y esta relación precisa ser considerada como una actividad del sistema.

Para entender y analizar un sistema, ciertos términos son predefinidos:

  • Entidad es un objeto de interés en un sistema.
  • Atributo es una propiedad de la entidad.
  • Actividad representa una acción que ocurre dentro del sistema.
  • Evento es una ocurrencia que altera el estado del sistema (o evento puede ser entendido como una actividad primaria e instantanea que no admite descomposición).
  • Estado describe una situación del sistema y es identificado por valores de sus variables en un instante determinado.

Una simulación es ventajosa cuando “imita” con mejor costo o menos recursos lo que acontece en un sistema real. Los datos de salida de una simulación deben corresponder directamente a las salidas que serían obtenidas del sistema real. En contraste con las técnicas analíticas, una simulación de modelos es “ejecutada” y a la vez debe ser resuelta. dado un conjunto particular de entradas el modelo es ejecutado y el comportamiento del sistema es estudiado. Este proceso de alteración de variables del modelo resulta en un conjunto de “escenarios” a ser avalados.

Las principales ventajas de la simulación son:

  • Nuevas políticas, procedimientos operacionales, reglas de decisión, flujos de información, procedimientos organizacionales, etc. pueden ser estudiados sin interferencia en las operaciones del sistema real.
  • Nuevos equipos, arreglos físicos, sistemas de transporte, etc. pueden ser testeados antes de que se invierta recursos en las adquisiciones mencionadas.
  • Hipótesis de como y porque ciertos fenómenos ocurren pueden ser avalados.
  • El tiempo puede ser comprimido y expandido, permitiendo que el fenómeno en estudio pueda ser acelerado o retardasdo.
  • “Cuellos de botella” donde las informaciones o materiales tienen sus flujos comprometidos pueden ser identificados.

Las principales desventajas son:

  • La construcción de modelos requieren un tratamiento especial. Puede ser considerado un “arte” que se aprende a lo largo del tiempo y que envuelve o “buen” uso de la experiencia.
  • Los resultados de la simulación pueden ser difíciles de interpretar. Como las salidas de la simulación pueden incluir variables aleatorias, no es trivial determinar si los resultados observados resultan de interrelaciones efectivas de las partes del sistema o si son fruto de la aleatoriedad del sistema.
  • Un modelamiento del sistema y un análisis de los datos pueden consumir mucho tiempo y muchos recursos. Por otro lado, economizar tiempo y recursos en el modelamiento y en el análisis pueden resultar en escenarios insuficientes para atender los objetivos.

En la defensa del uso de la simulación, las desventajas arriba citadas han sido minimizadas a través de los siguientes argumentos:

  • Programadores de sofwares de simulación tienen continuamente desarrollando paquetes que contienen un tipo de template de modelos pre concebidos en los cuales es necesario solamente definir los datos de la operación.
  • Muchos programadores de softwares tienen desarrollado paquetes con herramientas que facilitan el análisis de los datos de salida de la simulación.
  • Los avances en las plataformas computacionales permiten que una simulación sea realizada cada vez más rápidamente.

Una cada vez mayor disponibilidad de herramientas de simulación, una creciente capacidad computaciones y los avances en las metodologías de simulación han hecho de la simulación una de las técnicas más usadas y aceptadas en tareas de análisis y desenvolvimiento de sistemas.

Se considera que la simulación puede ser usada principalmente para las siguientes finalidades:

  • Estudiar las interacciones internas de un sistema complejo, o de un subsistema dentro de un sistema complejo.
  • Realizar alteraciones en las informaciones, en la organización y en el ambiente del sistema para observar los efectos.
  • Experimentar nuevos proyectos o nuevos procedimientos antes de implementarlas, y así estar preparados para lo que puede acontecer.
  • Identificar las variables más importantes de un sistema y como ellas interactúan a través del estudio de las señales de entrada y las salidas resultantes.
  • Verificar soluciones analíticas, siendo en el caso utilizado como un instrumento de validación.
  • Adquirir mayor conocimiento sobre el modelo de simulación y sobre el proceso de desenvolvimiento del modelo para mejorar el sistema.

Simulación, es, en general, entendida como una “imitación” de una operación o de un proceso del mundo real. La simulación envolucra la generación de una “historia artificial” de un sistema para el análisis de sus características operacionales.

El comportamiento de un sistema es estudiado a través de un modelo de simulación. Este modelo generalmente utiliza diversos parámetros sobre la operación del sistema. Una vez desarrollado y validado, el modelo puede ser usado para investigar una gran variedad de cuestiones sobre el sistema. Cambios en el sistema pueden ser simuladas a fin de preveer su impacto en el desempeño. La simulación puede ser también ser usada para estudiar sistemas aún en la fase de concepción, antes de que sean efectivamente implementados. Asi, una simulación puede ser usada como una herramienta para predecir los efectos de un cambio en los sistemas existentes y también como una herramienta de proyecto para abalar y validar el desempeño de nuevos sistemas.

Existen casos donde un modelo es basado en formulaciones matemáticas. Este modelo es, en general, desarrollado a través de ecuaciones integro – diferenciales, teoría de probabilidades, métodos algebraicos, etc. Entretanto, muchos sistemas en la vida real son tan complejos que sus modelos matemáticos son muy difíciles de ser formulados y utilizados. En este caso, utilizan las técnicas de simulación para “imitar” el comportamiento del sistema en un cierto intervalo de tiempo. A partir de esta simulación, datos son coleccionados como si un sistema real se estuviese siendo observado. Estos datos pueden entonces ser usados para estimar las mediciones de desempeño del sistema.


Los sistemas de almacenamiento de energía se pueden clasificar de acuerdo a la tabla indicada. En donde se puede ver la categoría de aplicación, el rango de descarga de potencia, rango de tiempo de descarga, el rango de almacenamiento de energia y las aplicaciones representativas.

El almacenamiento de energía en bruto (bulk energy storage) es de uso general, con potencias de hasta 1GW y otras más características mostradas, con aplicaciones principalmente para nivelar la carga. El almacenamiento destinado a generación distribuida, es para salvar picos que por sus características del sistema, no puedan ser atenuadas o signifiquen el encendido de generadores con los costos asociados a ello, se ha considerado como de hasta 2 MW para este tipo. La tercera consideración es un almacenamiento destinado a la salvaguardar la calidad de la energía, con cantidad menor a 2 MW, esto es para elevar la calidad de potencia en el usuario final y también la fiabilidad.

Todas estas formas mencionadas poseen sus propias tecnologías en el rango de la potencia que se desea almacenar, la energía que se puede descargar y los períodos de tiempo asociados para cada tipo de categoría. Las empresas fabricantes y usuarias de dichas tecnologías constamente hacen mejoras tanto en calidad, reducción de costos, mejores prestaciones.


Panamá tiene mucho más que ofrecer que sus vecinos a la hora de desarrollar su capacidad solar. El país ha aprobado recientemente una ley de medición neta (2010) en lo que le convierte  a esta nación como una de las primeras de América Latina en dar ese paso. Los cada vez más frecuentes fallos en la red eléctrica de la CIudad de Panamá, causados por la construcción desmedida y por la necesidad apremiante de energía, han tenido como respuesta la indignación masiva y un reclamo por encontrar nuevas fuentes de electricidad. Los ciudadanos están cansados de ver como sus facturas de energía se incrementan casi un diez por ciento cada año. Está claro que hay una necesidad, y ganas, de energía solar en el itsmo.

En ninguna parte es esto más evidente que en los remotos territorios indígenas repartidos por todo el país, donde la fotovoltaica sigue teniendo su mayor repercusión, ya que, por un lado, reduce el coste de la energía y, por otro, hace factible un cambio de vida al tener acceso a la educación y a la asistencia médica.

Ahora la cuestión y aspecto fundamental que retiene al país es el mercado. Panamá tiene suerte de contar con una red de potentes ríos y, según los funcionarios de más alto rango responsables de energía, el país tiene bastante capacidad hidroeléctrica como para continuar con su desarrollo durante décadas. Y donde la energía hidroeléctrica no es suficiente, el país está decidido, hasta la fecha, seguir alimentando su crecimiento con el llamado Bunker C, un combustible residual que tiene un efecto contaminante elevado, además de con un ciclo combinado de diésel de mayor calidad. Mientras tanto, el precio de la energía solar está cayendo de forma drástica y la gente, y también el gobierno, están empezando a tenerla en cuenta.

Aunque hay que decir que aún cuesta el doble instalar un kilovatio de potencia fotovoltaica que un kilovatio de hidroeléctrica, amén de que las centrales hidroeléctricas, como por ejemplo la de Changuinola 75, de 223 megavatios al noroeste de la capital, están produciendo en Panamá unas 4600 horas anuales, mientras que la fotovoltaica se aproxima a las 1300 horas. Esta es la razón por la que es tan difícil justificar a nivel nacional una campaña para instalar sistemas solares con conexión a la red eléctrica. Es más probable, y a corto plazo con más éxito, que Panamá continúe desarrollando instalaciones solares aisladas. Para el turismo, para casas de campo y para todas las decenas de miles de indígenas y campesinos que viven en la pobreza y cuya vida, ahora que tienen luz, nunca se volverá a ver de la misma forma.

A FAVOR

  • Cuando no llueve, el país dispone de mucha luz solar.
  • Los precios de la energía se han disparado en los últimos cinco años.
  • El crecimiento desmesurado de la Ciudad de Panamá hace que sean necesarias nuevas fuentes de energía para hacer frente a la creciente demanda de electricidad.
  • El creciente mercado turístico en zonas sin conexión a la red eléctrica necesita una fuente de energía limpia y abundante.
  • La ley de medición neta brinda un incentivo que pocos países vecinos de América Latinaa comparten.
  • Su posición geográfica es idónea para la importación y el transporte de componentes solares.

EN CONTRA

  • La época de lluvias dura ocho meses y, a veces, con muchos días nublados.
  • Hay poca competencia entre los instaladores solares para hacer que bajen los precios.
  • Los enormes recursos hidroeléctricos de Panamá hacen que no tenga que preocuparse a corto plazo por su seguridad energética.
  • Los requisitos y demoras burocráticos crean una barrera para los potenciales instaladores.
  • Los costes de instalación son todavía elevados debidos a la falta de incentivos estatales.
  • La mayor parte del país es de difícil accesibilidad.

Los poderosos bancos, sociedades financieras y empresas constructoras en las que se ha cimentado la moderna Ciudad de Panamá le deben mucho a una fuente de energía que domina sobre las demás: el agua.

El 57 por ciento de la electricidad total de Panamá proviene hoy en día de la hidráulica, y se prevé que esta proporción aumente, puesto que se ha destinado 1710 millones de dólares para incorporar en la próxima década a la red otros 700 megavatios, que ya se encuentra en construcción. Con ello, el país sumará una potencial total hidráulica instalada de 1.58 megavatios. Y eso es sólo la punta del iceberg: según el Ministerio de Energía, la nación posee dos gigavatios adicionales en potencia hídrica esperando ser explotados.

Con tres enormes compañias extranjeras controlando el mercado doméstico (dos pertenecen a la española Gas Natural Fenosa, la restante a la estadounidense Ashmore Energy International) la perspectiva de un cambio sustancial en el modelo energético basado en el abrumador poder hídrico en Panamá es poco probable a corto plazo.

El desarrollo frenético en la capital ha provocado un crecimiento anual de nuevo por ciento en la demanda de electricidad, que en el 2009 alcanzó los 5.65 teravatios hora, desbordando la capacidad de suministro y forzando al gobierno de Ciudad de Panamá a espabilarse para encontrar fuentes de energía que den sus frutos con rapidez. A consecuencia de ello, cada vez más barcazas equipadas con generadores han abarrotado los puertos de la ciudad, donde queman un diesel mugriento de baja estofa llamado Bunker C – y que ahora representa el 20 por ciento del mix energético, junto al otro 20 por ciento representado por el diesel normal de ciclo combinado-.  Todo ello conjuntamente hace que un país de sólo algo más de tres millones de habitantes alcance unos avallasadores 6.86 teravatios hora de potencia bruta generada anual (incluyendo autogeneradores y sistemas aislados). de los cuales el mayor consumidor es con el 43.5 por ciento el sector comercial, seguido por el residencial (31.86 por ciento), siendo el consumo del sector industrial de tan sólo el 9.35 por ciento.

Panamá ha crecido rápidamente, aunque ha pagado su precio por ello. El precio del kilovatio hora, que fluctúa entre 0.18 y 0.22 dólares en la capital, y entre 0.26 y 0.30 en regiones más remotas, se encuentran entre los más elevados de América Latina, Además, la subida de entre un 9 y un 15 por ciento  anual en los últimos cinco años está haciendo que muchos en Panamá reconsideren su postura y piensen en las energías solar y eólica como una posible solución.

Por el momento la eólica lleva la delantera: cuenta con el compromiso del gobierno para invertir mil millones de dólares (2010) en proyectos eólicos en los próximos cuatro años. Una promesa que no se ha hecho a la energía solar, a pesar del hecho de que un kilovatio de fotovoltaica instalado hoy cueste menos de lo que costaba en 2006. La potencia fotovoltaica total instalada en el país es apenas de aproximadamente 700 kilovatios. Y sólo diez de esos kilovatios inyectan a la red.

Cifras
Habitantes (2009): 3360000
Producto Bruto Interno (PIB): 40800000 dólares.
Renta per cápita (2009): 12530 dólares.
Aumento del PIB en 2009: 2.4 por ciento.
Potencia eléctrica instalada total (2009): 6.86 teravatios hora.
Potencia fotovoltaica instalada total (estimaci+on 2010): 700 kilovatios, de ellos 10 kilovatios conectados a la red.


Bendecido con las condiciones idóneas para el empleo de la energía solar fotovoltaica – alta irradiación y bajas temperaturas -, Chile quiere aprovechar el sol como fuente de energía principalmente en las tierras del norte, donde trabaja la industria minera. La abundancia de materias primas como cobre, silicio, litio y sales fundidas podría desarrollar una propia industria, con la que suministrar al mercado chileno y a otros. Además, a partir del año 2009 existe una ley de energías renovables que impulsará la instalación  de cerca de dos gigavatios de centrales renovables en los próximos años.

Sin embargo, esa totalidad se cubrirá casi en su totalidad con centrales eólicas. No existe prácticamente ninguna experiencia en grandes sistemas fotovoltaicos acoplados a red, aunque el gobierno ha puesto ya en marcha los primeros proyectos piloto. La causa de esta experiencia radica en la carencia de una prima por inyección a red, asi como en la no existencia de una industria local y los pocos empleos que todavía genera el sector solar.

A pesar de ello, la mayoría de los representantes del sector consideran a Chile, junto con Argentina, uno de los mercados más relevantes de Sudamérica.

Aunque el cambio político aboca hacia un sistema de incentivos para la generación distribuida, son los proyectos piloto fotovoltaicos y termoeléctricos los que darán más confianza al pueblo chileno a utilizar la energía solar en mayor escala. Quizás no ahora, pero sí en un corto plazo.

PROS

  • Condiciones físicas ideales para el empleo de la fotovoltaica.
  • Economía creciente en una economía estable.
  • Necesidad acuciante de grandes centrales eléctricas.
  • La energía solar es a menudo la única alternativa a la producción eléctrica altamente contaminante.
  • Abundante y barata materia prima para la creación de una industria local.
  • El legislador promueve la implantación de energías renovables.
  • Respaldo público a créditos de planificación y financiación de proyectos.

CONTRA

  • La fotovoltaica se considera cara en Chile.
  • La normativa favorece especialmente la implantación de centrales eólicas.
  • Los fondos estatales se destinan principalmente a proyectos solares térmicos.
  • Carencia de una tarifa por inyección a red de electricidad procedente de energías renovables.
  • No existencia de una propia industria solar, que se traduce en elevados costes de transporte de los componentes.
  • Poca mano de obra cualificada en instalación, industria e investigación.
  • La falta de grandes sistemas solares impide valorar con criterio de comportamiento del rendimiento de las instalaciones.

Fuente: PHOTON Marzo 2010


El sector solar de Chile de momento es muy insignificante, a pesar de que debido a la alta radiación que se registra em el norte del país las inversiones pudieran ser muy rentables.

Puestos de trabajo: Cerca de 60, otros 200 en el sector solar térmico.
Facturación 2009: Entre dos y tres millones de euros.
Tipos de instalaciones fotovoltaicas: Principalmente sistemas aislados (99 por ciento), a lo que se añade aplicaciones en farolas, telecomunicaciones y sistema de bombeo.
Precio de los módulos: entre 2 y 2.5 euros por vatio para módulos de fabricantes chinos, entre 3.8 y 4 euros por vatio para módulos americanos o europeos.
Fomento: ninguno.
Tarifa por inyección a red: ninguna.
Rendimiento de las instalaciones: La radiación global anual en Chile se sitúa entre 850 y 2500 kilovatios por metro cuadrado. El rendimiento de una instalación podría situarse en más de 2000 kilovatios hora por kilovatio instalado, en algunas regiones en 700 kilovatios hora por kilovatio de potencia instalado.
Precio electricidad doméstica 2008: Según la región, entre 48 y 70 pesos por kilovatio hora (siete y diez céntimos de euro).


Hasta la fecha, las energías térmicas e hidráulica se han repartido prácticamente el pastel eléctrico chileno. Cerca de 13 gigavatios se encontraban instalados en 2008, de los cuales casi cinco gigavatios corresponden a pequeña y gran hidraúlica. Los otros ocho gigavatios pertenecen a centrales térmicas de carbón, gas y petróleo. Junto a la hidráulica, las otras energías renovables han tenido un discreto desarrollo. Hasta la fecha, el país solo cuenta con poco más de 20 megavatos de potencia eólica y 166 megavatios de biomasa. Sobre fotovoltaica, la Comisión Nacional de Energía Chilena (CNE) no reporta ninguna cifra. Se estima que en dicho país se encuentran instalados más de 4000 sistemas aislados, que suman una potencia aproximada de 2.5 megavatios.

De la generación y transporte de la electricidad se encargan 70 empresas: 28 generadoras y 37 distribuidoras. El mercado se encuentra fuertemente monopolizado y, así, en 2008 tres empresas controlaban el 75 por ciento de la potencia chilena: Endesa Chile (36 por ciento), Colbún SA (20 por ciento) y AES Gener SA (19 por ciento).

El mayor consumidor es la industria. La minería requiere el 37 por ciento de la producción eléctrica del país, seguida por el resto de la industria, que demandan el 31 por ciento. El segmento comercial y público acapara el 14 por ciento de la demanda, mientras que a los hogares se destina el 17 por ciento de la electricidad. En la actualidad, cerca de un seis por ciento de la población carece de acceso a la red eléctrica.

El sector en cifras
Habitantes cerca de 17 millones.
Producto Bruto Interno (PIB): 64680 millones de peso (88500 millones de euros).
Crecimiento PIB: 3.2 por ciento.
Producción eléctrica (2008): 56.7 teravatios hora, 3.334 kilovatios hora por habitante.
Potencia fotovoltaica instalada: cerca de 2.5 megavatios en más de 4000 sistemas aislados.

Producción Eléctrica 2008
Hidráulica > 20 MW: 37%
Mini hidráulica < 20 MW: 1%
Carbón: 16%
Gas: 36%
Petróleo: 9%
Biomasa: 1%
Eólica: 0%

Participación de ERNC
Energías renovables no convencionales (ERNC): 3%
Fuentes convencionales: 97%


La potencia eléctrica es el producto de corriente y tensión. En el caso de los módulos solares, o de varios módulos conectados entre sí que forman un generador, existe siempre un determinado punto de trabajo donde suministran la máxima potencia posible, con la irradiación disponible de cada momento y la temperatura actual. Éste es el llamado Maximum Power Point (MPP) o punto de máxima demanda. En palabras sencillas: sólo cuando la tensión esta bien ajustada se obtiene el producto óptimo de tensión y corriente.

El que se encarga de buscar la tensión correcta es el inversor, más concretamente: el seguidor MPP. En general, se trata de un código de programa relativamente sencillo que impulsa a la electrónica del inversor a modificar constantemente la tensión, formando siempre el producto de tensión y corriente. Cuando se reduce la potencia, el programa reconoce que no va en la buena dirección y cambia de rumbo. Si este control funciona con rapidez y precisión, el <<seguimiento MPP>> (MMPP) del inversor se encuentra siempre cerca del punto óptimo. De hecho, los modernos equipos tienen eficiencias MPPT de cerca del 100 por ciento. Lo habitual es que un seguidor MPP controle varias entradas de corriente continua.

De todos modos, hay casos en que los diversos generadores parciales (ramales de módulos) de una instalación tienen diferente orientación y se ven afectados por sombrados a lo largo del día. Para ello es mejor que cada entrada de corriente continua disponga de su propio seguidor MPP. Es una variante que se está poniendo de moda. La cosa se pone más interesante cuando las entradas de corriente continua pueden soportar cargas asimétricas, ya que, así, los ramales de diferentes longitudes podrán conectarse a un inversor. La ventaja es que se requiere un solo inversor grande en lugar de varios pequeños, ahorrando el material y tiempo de montaje. El incoveniente de la carga simétrica y asimétrica es que un mayor número de seguidores MPP también requere varios convertidores DC/DC elevadores, en los que siempre se pierde un poquito de eficiencia. Por este motivo se recomienda utilizar los <<inversores Multitracker>> solamente cuando es realmente necesario.


Antaño los transformadores eran imprescindibles en los inversores fotovoltaicos para elevar la baja tensión de los generadores solares al nivel necesario para la inyección a red. Los sistemas actuales ya no lo requieren, y los transformadores resultan pesados, caros y un obstáculo para lograr eficiencias máximas. Todos los equipos con mejor desempeño trabajan sin transformador. Por tanto, se recomienda a los clientes prescindir de este componente y optar por un inversor sin transformador, a no ser que la instalación requiera la separación galvánica entre el lado de corriente continua y alterna.

Este caso no constituye una verdadera excepción y sucede a menudo: determinados tipos de módulos cristalinos, como los módulos de alto rendimiento del fabricante estadounidense Sunpower Corporation, necesitan una puesta a tierra del generador con elevada resistencia. Sin separación galvánica se produciría un cortocircuito. Es una lástima que los módulos con las mayores eficiencias en la actualidad no se puedan combinar con los inversores más eficientes. Pero la empresa ya está investigando para encontrar soluciones.

Para otro grupo de módulos aún mayor ya existen soluciones semejantes: para los de capa delgada. Por principio, estos no pueden trabajar con inversores que carezcan de transformador. Sin separación galvánica existe un potencial de tensión capaz de provocar en estos módulos, con sus finas capas semiconductoras de pocos nanómetros, una <<corrosión eléctrica>> (arranque de material por caída de tensión eléctrica) y dañar las células solares. No obstante, hay inversores sin transformador que trabajan con una estructura de conexión especial que evita estos potenciales de tensión o los reduce a un nivel inofensivo. Los fabricantes suelen ofrecer la documentación correspondiente en sus páginas web.


Los inversores de plantas fotovoltaicas de particulares suelen ubicarse en el sótano de las casas unifamiliares. Es un lugar ideal: seco, ni demasiado caliente ni demasiado frío, los posibles ruidos del ventilador no molestan a nadie, y además no se forma mucho polvo que podría dañar a un ventilador integrado.

Pero por varios motivos se recomienda a menudo escoger otro sitio: debajo del tejado, en un entorno polvoroso o incluso a la interperie. Los fabricantes e instaladores deberían responder a tres preguntas de sus clientes:

  • ¿Qué temperaturas resiste el inversor?. Parte de la respuesta se halla en la hoja técnica que indica el rango de temperaturas con que el equipo puede trabajar. Lo habitual es que abarque de menos de 20 a más de 40 grados centígrados. Es fácil rebasar el límite superior en lugares muy calientes, en ese caso sería mejor escoger un equipo con rango de temperaturas de hasta 60 grados centígrafos. Además, es sumamente importante que el inversor a elevadas temperaturas ambiente no reduzca su potencia antes de tiempo. Los equipos buenos no lo hacen antes de 40 grados centígrados, perdiendo después sólo décimas de puntos de eficiencia. Incluso los hay que llegan a trabajar a 60 grados centígrados sin reducir la potencia.
  • ¿Qué protección tiene el inversor contra el polvo?. Cualquier aparato eléctrico con tensiones peligrosas debe poder tocarse con los dedos sin riesgo y debe estar hecho de tal manera que no pueda entrar un cuerpo extraño de más de doce milímetros de diámetro. Por tanto, es preciso indicar el tipo de protección que tiene la carcasa (el código de protección internacional, IP) que debe comenzar al menos con la cifra dos. Sólo a partir de cinco hay una protección del interior contra depósitos de polvo y a partir de seis el inversor se considera <<hermético al polvo>> . Un inversor con ventilador que tiene salida hacia fuera (también existen ventiladores que sólo circulan el aire dentro del equipo) tiene un problema incluso si la carcasa tiene la cifra seis: el ventilador puede obstruirse y bloquearse. Por esta razón es importante el que pueda ser sustituido con facilidad. Por otra parte, hay que tener en cuenta que a veces la carcasa y ventilador presentan diferentes clasificaciones IP. Si el inversor se cuelga dentro de la vivienda (por ejemplo en el pasillo) se recomienda siempre un aparato sin ventilador para evitar ruidos molestos.
  • ¿Cómo reacciona el equipo ante la humedad?. Lo aclara la segunda cifra de la clasificación IP. El uno es el valor mínimo para que una gota que cae verticalmente no entre en el interior del equipo. No se espera más de un cinco en inversores (el seis representa la protección contra inundaciones temporales), que es la protección contra chorros de agua desde cualquier ángulo, y que es la que hace al aparato apropiado para su ubicación en el exterior.

La red eléctrica es trifásica, pero la mayoría de invesores fotovoltaicos sólo inyecta en una sola frase. Esto supone un anacronismo para el que hay que buscar el origen en los primeros tiempos de los sistemas fotovoltaicos conectados a red. En aquel entonces no existían conectores para módulos solares que estuvieran protegidos. Como medida de seguridad se aplicaba por tanto como valor orientativo una tensión baja de 120 voltios a los generadores solares. Un transformador situado en el inversor se encargaba de elevar este valor para adaptarlo a los 250 voltios de tensión de red. Sin embargo, los transformadores trifásicos eran caros y poco frecuentes en el mercado.

Hoy por hoy las plantas fotovoltaicas trabajan con tensiones de sistema mucho mayores que la red eléctrica, por lo que es posible prescindir de transformador. También la vigilancia de la red, que ayuda al inversor a detectar variaciones de la red eléctrica para que se pueda desconectar si p rocede, funciona con más fiabilidad de forma trifásica que monofásica. Y, sobre todo, los inversores de inyección trifásica no generan cargas desequilibradas: por motivos de estabilidad se puede conectar un máximo de 4.6 kilovatios en cada fase para evitar una mayor asimetría. Pero se permiten excesos cortos del diez por ciento. Por tanto, la conexión monofásica de plantas solares es sólo posible hasta un máximo de cinco kilovatios de potencia. A mayor potencia hay que repartirla por las tres fases y conectarse varios inversores. Por ejemplo, en el caso de una planta de diez kilovatios de potencia, se necesitarán dos equipos de cuatro y uno de dos kilovatios. Los inversores monofásicos con más de 4.6 kilovatios de potencia de corriente continua sólo pueden emplearse en un grupo de tres y deben disponer de una interfaz: si un equipo con su potencia de inyección cae por debajo de los otros en más del valor permitido, también los otros dos deben reducir su potencia.

Todo ello es muy laborioso, además hay que tener en cuenta el inconveniente de que los inversores monofásicos resultan ser más caros que los trifásicos. A inyección monofásica, la potencia no entra de forma constante a la red, sino que circula con el curso de la tensión y potencia del inversor. Sin embargo, el generador solar suministra corriente continua al inversor, por lo que es siempre necesario almacenar temporalmente grandes volúmenes de corriente, lo cual requiere el uso de condensadores electrolíticos caros. Estos además tienen la desventaja de ser propensos a envejecer con rapidez. En cambio, los inversores trifásicos pueden funcionar con mucho menos almacenamiento temporal, y a menudo no necesitan más que los condensadores de hojas más resistentes. Los equipos trifásicos tienen además ventajas a la hora de aprovechar los transistores requeridos para convertir la corriente continua en alterna: aunque necesitan más (seis en lugar de cuatro), sacan más provecho de ellos.

En definitiva, los inversores trifásicos tienen en general más ventajas que los monofásicos. Son mejores y más baratos, de modo que no extraña que que se ofrezcan cada vez más. El que los equipos monofásicos sean más populares se debe a que se desarrollaron grandes cantidades en el paso que todavía están en el mercado. En vista de las circunstancias actuales, tienen un valor más histórico que técnico, y es posible que en un futuro próximo caigan en desuso.


Una vieja regla práctica dice que la potencia del generador solar debería superar en un 20 por ciento la del inversor. Lo cierto es que la potencia nominal de los módulos se alcanza sólo en días de irradiación alta, mientras que el inversor debería funcionar lo menos posible en el rango inferior de carga parcial. Como en todos los equipos de conversión de potencia, es en estas circunstancias donde logra las peores eficiencias. Un inversor con un dimensionado demasiado elevado reduce, por tanto, la eficiencia del sistema entero y cuesta dinero innecesario.

Sin embargo, esta regla es antigua y ha dejado de ser correcta. Los modernos inversores llegan a altas eficiencias también en el rango inferior de potencias. Además, hoy la potencia nominal de los módulos solares raras veces se indica con tolerancias negativas, muy habituales en otros tiempos. Y eso significa, un generador con, por ejemplo, cinco kilovatios de potencia nominal consigue muchos días al año alcanzar realmente estos cinco kilovatios. En cambio, un inversor con bajo dimensionado llegaría a su rango de sobrecarga y reduciría su potencia.

En la práctica es muy importante fijar en cada caso la relación óptima entre la potencia del generador y del inversor. Alcanzarán con más o menos frecuencia su potencia nominal, en función de las condiciones regionales de irradiación y en función de la desviación que presentan los módulos de la orientación óptima hacia el sur con un ángulo de 30 grados. Como punto de referencia aproximado se puede decir que la potencia del generador, en caso de orientación buena, debería equivaler más o menos a la poetncia de corriente continua del inversor y, enc aso de ligeras desviaciones, no superarla en más de 115 poe ciento. Los inversores con pequeño rango de sobrecarga (inferior al cinco por ciento de la potencia nominal) deben ajustarse con más precisión que otros que soportan una mayor sobrecarga. Sin embargo, no todas las hojas técnicas informan sobre este aspecto.


En las hojas técnicas de los inversores, se suelen colocar dos datos sobre sus eficiencias: la eficiencia máxima y la eficiencia europea. Sin embargo, ninguno informa con exactitud con qué eficiencia trabaja el inversor en el promedio de todas las situaciones de carga posibles. Pero esto es muy importante, ya que lo más normal de una instalación fotovoltaica, es que funcione en estados de servicio completamente distintos, según la climatología i ek momento del día.

La eficiencia máxima es el valor máximo absoluto que puede alcanzar un inversor. Y esta situación se logra sólo con una determinada combinación de potencia y tensión, por lo que dicho valor es prácticamente irrelevante.

La eficiencia europea es el resultado de las diversas eficiencias ponderadas a diferentes cargas. la ponderación tiene el objetivo de ser representativa para la frecuencia de irradiación baja, media y alta en Europa Central, de ahí su nombre. También existe la efiencia californiana que se aplica a regiones más soleadas. Sin embargo, para la eficiencia europea no se define la tensión de entrada a la que se aplica. Para fijar el valor indicado en la hoja técnica se comprende que los fabricantes escojan una tensión de entrada que su equipo acepta especialmente bien. Pero es la práctica, la tensión de entrada cambia constantemente. Muchos fabricantes indican muy amplios rangos de tensiones de entrada, con el fin de compatibilizar (o mejor dicho, hacer que parezcan compatibles) sus inversores con el mayor número posible de configuraciones de plantas. De ahí que este dato tampoco sea informativo. Y no cambia mucho indicar la eficiencia europea a diversas potencias parciales.

En realidad, la efiencia no se puede reflejar como un valor homogéneo, sino sólo en forma de diagrama.


Hay métodos en fase de desarrollo que prevén el uso de técnicas perfeccionadas de serigrafía que funcionen en una sola fase y que ahorrarían en costes. La capa de barrera, impresa como máscara, podría dejar libres los contactos y, al mismo tiempo, quedar permeable para una parte de los átomos de fósforo. en este caso, el dopado depende del grosor de la capa de barrera. Con el mencionado método, una fase de difusión abarca todas las zonas del emisor selectivo.

También basta con un solo paso si antes de la difusión se aplicase una pasta fosfórica sobre el patrón de los contactos, de modo que bajo acción térmica los átomos se mueven fuera de la pasta y penetran en la zona de conductividad. Existe otra variante más sofisticada, que consiste en usar en los contactos pasta de plata, que contiene fósforo y lo libera al silicio durante el curado de contactos. No obstante, el problema de emplear pastas de fósforo es que la concentración de los átomos de fósforo en el silicio varía fuertemente tras la aplicación.