dijous, 27 de febrer del 2014

Cables elèctrics de nova generació

Aquest és un experiment que està en marxa a Limousin  (França), per provar una nova tecnologia per a la línia aèria anomenada LOSAG. Aquest cable és lleuger i durable, amb el cor que conté fibres de carboni que reemplacen els conductors antics, mentre que el manteniment de les estructures permet donar una nova vida a la xarxa construïda.

Què té d'especial aquest nou cable?
A diferència dels conductors convencionals amb un nucli d'acer, el cor d'aquest nou cable està fet de material compost (fibra de carboni en resina) Aquest cable és un conductor compost de matriu orgànica (CMO). Això vol dir que quan s'escalfa, dilata molt poc. Però el seu principal avantatge és la seva lleugeresa. Amb les mateixes propietats mecàniques i elèctriques que el cable convencional, i molt més gràcies al seu pes lleuger, permet mantenir es esforços  dels suports de manera que  no cal reforçar o substituir estructures en una línia de rehabilitació



Avantatges del conductor ACCC 

Els conductors ACCC estan pròxims d'aconseguir la perfecció, per què són capaços de conduir més energia, tenen més alumini pur 

i opera en elevades temperatures (HTLS) 

Redueixen significativament les pèrdues en les línies, el que  augmenta l'economia, reduint els costos de generació. 

Presentam mínima fletxa, 

Creep cuase zero, amb el temps 

Duren tant o més que altres conductors 

La Tecnologia d'aquests  conductors ofereixen més conductivitat material / quilòmetre; usen en el seu nucli fibra de carboni per eliminar fletxes i errors (creep) i usen alumini recuit per operar a alta temperatura

La gestió dels actius a la Samrt Grid

De quina manera és pot predir quin dels actius de la xarxa de distribució estan a punt de fallar, i com  impacten aquestes avaries en els costos i riscos?
Com pot un distribuïdor fer la gestió del seu manteniment del dia a dia i els plans d'operacions d'una manera que consideri les noves dades que vindran de les xarxes intel·ligents?
Com pot decidir quina de les diferents opcions  per al manteniment d'actius, la substitució  i les estratègies d'adquisició és la millor - no només aquest any ,sinò a deu anys vista?
Aquests són el tipus de preguntes enormement complicades que anàlisi de dades grans podrien començar a respondre. De fet, el programari d'anàlisi ja s'ha posat en ús per gestionar els actius. Ara, amb la proliferació de les xarxa intel·ligent en la xarxa de distribució, aquestes plataformes estan començant a arribar a qualsevol escenari.
La  Gestió del Rendiment d'Actius (APM), ara en ús en plantes d'energia, refineries i fàbriques de tot el món, està previst integrar  programari per a les xarxes d'electricitat i gas  amb la millora de la seva capacitat per identificar avaries incipients abans que ocorrin i per corregir les condicions d'operació que estan causant problemes a llarg termini.
Això no és un concepte nou. Molts dels proveïdors d'equips de la xarxa ofereixen sistemes d'alerta en el seguiment i prevenir  d’errors abans que ocorrin. Els proveïdors de programari com SAP , Oracle i IBM , així com proveïdors de xarxa de smartmeters i les noves empreses d'anàlisi de dades, s’estan comprometent per recollir dades dels dispositius dispars per predir millor l’estat del transformador, identificar quines línies elèctriques estan sota estrès, i identificar altres problemes de “salut” de la distribució.
Hi ha una gran diferència entre aquests productes d'anàlisi del tipus d'actius específics però, ser capaç d’obtenir a llarg termini, la visió de la totalitat de la cartera d'actius d'un distribuïdor, cal anar involucrant múltiples unitats del negoci com l'administració de personal, operacions de la xarxa, adquisicions i logística, finances i normativa.
En segon lloc  s'ha de proporcionar " la bola de vidre per mirar a curt termini per identificar si hi ha quelcom que pugui a fallar, es a dir, si hi ha alguna una cosa que causa una degradació, disminució del rendiment, d'un actiu en la meva xarxa  cal prendre algun tipus d'acció de canvi.
També cal considerar la idea de la planificació a llarg termini  el que implica quina quantitat de fiabilitat es disposa en un determinat circuït d'una subestació, quina inversió cal perquè es disposa de la informació per justificar la.
Visió d’un nou mercat pels actius de la xarxa de distribució.
La planificació d'actius basada en anàlisi esdevé en quines inversions en tota l'empresa, realment es poden pagar .
Aquestes anàlisis pot superposar  les idees per canviar fonamentalment la forma en que avui actuen els reguladors va dir. Tenir totes les dades dels actius en qüestió podria ajudar a justificar tot tipus d'inversions a la xarxa d'última generació - més automatització i la gestió de la demanda de distribució en temps real, desplegament estratègic dels projectes de resiliència de la xarxa amb d'emmagatzematge d'energia o similars  per gestionar els reptes del futur , com la vulnerabilitat per tempestes i desastres naturals a la capacitat de recuperació de la xarxa aprofitant la influència de l'energia solar fotovoltaica i altres recursos energètics distribuïts de propietat del client a la xarxa.
No obstant això, l'experiència que van en la gestió de les xarxes de distribució no són necessàriament de la mateixa qualitats que fan de la gestió predictiva i estratègica d'actius.
Els valors de l'anàlisi a l'altre costat de la xarxa
El desafiament amb l'anàlisi dels actius de la xarxa de distribució fins fa poc, no disposava de la instrumentació i la recopilació de dades per posar en ús  l'anàlisi dels mateixos: A causa d'això, l'enfocament  típic es basava en fer-ho funcionar fins que falli.
Però a mesura que les xarxes disposen de mes eines, i els costos entre la gestió i/o el fracàs  van en augment és probable que canviï de manera que els mateixos actius es tornin més intel·ligents.
Aquest tipus d'argument és cada vegada més  compartit exigint anàlisi cost-benefici dels desplegaments de xarxes intel·ligents , o creant nous mètodes de planificació de la xarxa de distribució que permetin tenir les noves tecnologies en compte .
La gestió d'actius empresarials d'avui  tendeixen a no tenir la capacitat d'incorporar totes les dades que s'obtenen a partir d'aquests nous dispositius intel·ligents
Font: GreenGrid

dilluns, 24 de febrer del 2014

el funcionamenty dels sistemes GPS

GPS (Global Positioning System) és un sistema de navegació per satèl·lit consistent en una constel·lació de 24 satèl·lits orbitant a una distància de 20.200 km. Els primers satèl·lits utilitzats per a la radionavegació van ser els de la sèrie nord-americana TRANSIT, un total de 10 que es van acabar de llançar l'any 1964. L'objectiu d'aquest sistema va ser el de proporcionar ajuda de navegació per als submarins del tipus Polaris. El seu funcionament es basava en el desplaçament de freqüència (efecte Doppler ) que patia el senyal rebuda dels satèl·lits com a conseqüència del moviment orbital d'aquests. Posteriorment, coneixent les coordenades dels satèl·lits i aquestes desviacions de freqüència era possible calcular la posició de l'observador. No obstant això, el principal inconvenient del sistema TRANSIT és que la mesura era lenta i no podia ser utilitzat per aeronaus. Per resoldre aquesta deficiència, el departament de defensa dels EUA decideix aprovar el 1973 el programa NAVSTAR-GPS (Navigation System Time And Ranging-GPS), que pretenia proporcionar als usuaris precisions de l'ordre de desenes de metres amb cobertura contínua en tota la superfície terrestre.
Així, l'any 1978 es llancen els 4 primers satèl·lits de la constel·lació NAVSTAR que permetien posicionar un objecte sobre la superfície de la Terra a partir dels senyals de ràdio transmeses pels satèl·lits i processades en l'equip receptor, aconseguint precisions dependents del tipus d'informació rebuda, temps de recepció i condicions de l'emissió. Dissenyat al principi amb propòsit exclusivament militar, el sistema GPS juntament amb altres sistemes de navegació per satèl·lit denominats RDSS han assolit en l'actualitat gran nombre d'aplicacions d'índole civil, com ara activitats de navegació aèria, marítima o terrestre que han suposat un important avanç en l'organització i en l'estat dels transports i les comunicacions mundials .
Elements del sistema
Com qualsevol sistema de satèl·lits, el sistema NAVSTAR - GPS es compon de tres segments diferents:
- Segment espacial,
 - Segment de control,
- Segment d'usuari. 
El segment espacial és clarament el més costós, format pels satèl·lits de la constel·lació NAVSTAR. Els satèl·lits se situen en 6 òrbites el·líptiques gairebé circulars (excentricitat 0,03), semisíncronas i separades entre si 60 º . Els plans orbitals tenen una inclinació de 55 º respecte al pla de l'equador i es nomenen com A , B , C , D , E i F. Cada òrbita conté almenys 4 satèl·lits (separats 90 º entre si), encara que pot contenir més. Els satèl·lits se situen a una altitud de 20.169 km sobre la Terra i completen una òrbita en 12 hores 58 minuts. D'aquesta manera, s'assegura una cobertura global ininterrompuda que permet la visibilitat d'un mínim de 4 satèl·lits .
Els actuals satèl·lits pesen 800 kg i tenen una vida mitjana de 7,5 anys. L'energia elèctrica s'obté de panells solars que proporcionen 600 W de potència. L'emissió es realitza emprant una potència de 25 W per mitjà d'agrupacions d'antenes helicoïdals amb polarització a dretes. El fet de no utilitzar polaritzacions lineals es deu a la rotació Faraday que es produeix quan les ones electromagnètiques travessen l'atmosfera. Atès que es necessita cobertura global, les antenes tenen amples de feix elevats. Ara bé, l'inconvenient d'utilitzar antenes de baixa directivitat és que el senyal arriba a la superfície terrestre uns 30 dB per sota de la densitat espectral de soroll ambient que capta del cel l'antena receptora. Com a solució a aquest problema, s'utilitza la tècnica d'espectre eixamplat que permet obtenir una gran guany de processat. Finalment, cada satèl·lit transporta 2 rellotges de Cesi i 2 de Rubidi de gran estabilitat funcionant a una freqüència de 10,23 MHz La sincronització dels rellotges i de les freqüències del sistema GPS es realitza des del segment terreny, permetent una desviació diària màxima de la freqüència de rellotge de 10-12 MHz , la qual cosa equival a 0,1 parts per bilió .
El segment de control està compost per 5 estacions monitores, 3 amb enllaç ascendent per transmetre ordres i dades, i una mestra situada a Colorado Spring. Aquesta última s'encarrega de recollir la informació de la resta d'estacions monitores repartides pel món:
-  Ascensió (Atlàntic sud)
-  Hawaii (Pacífic oriental)
-  Kwalalein (Pacífic occidental)
-  Diego García (Índic).
Les estacions monitores reben en tot moment els senyals transmesos pels satèl·lits visibles i obtenen la informació necessària per calcular amb gran precisió les òrbites dels satèl·lits. Un cop transmesos aquestes dades a l'estació mestra , aquesta calcula les efemèrides dels satèl·lits i s'inclouen en el missatge de navegació. Addicionalment , es proporcionen serveis de telemetria i telecomandament.
Finalment , el segment d'usuari el constitueixen els equips receptors situats sobre la Terra. L'equip d'usuari és un dispositiu passiu, ja que únicament rep la informació provinent dels satèl·lits (efemèrides, correccions , etc .) i la processa. Les seves funcions principals són:
- Sintonitzar el senyal emès pels satèl·lits ,
- Descodificar el missatge de navegació,
- Mesurar els temps de retard,
- Calcular les dades requerides
- Interpretar els resultats.
Hi ha una gran oferta de receptors al mercat, des dels més simples de mà amb preus a partir d'unes 120 €, fins als que s'utilitzen en grans vaixells i avions que costen centenars de milers d'€. Els més populars són els de mà, ja que els seus preus són bastant assequibles i permeten gran quantitat de funcions, com emmagatzemar punts de referència i crear rutes amb ells sobre les que posteriorment ens guiarà l'equip . Els més bàsics són els anomenats OEM , que únicament tenen l'electrònica necessària per a calcular la posició i no tenen ni pantalla ni botons.
Funcionament
La idea que hi ha darrere del sistema GPS és la d'utilitzar satèl·lits en l'espai com a punts de referència per a localitzacions terrestres. Mitjançant el mesurament molt precis de les distàncies a tres d'aquests satèl·lits, la qual cosa es realitza a partir de les mesures dels retards que han patit els senyals provinents d'aquests satèl·lits, es pot calcular per triangulació la posició en qualsevol lloc de la Terra.
 
Si s'utilitza un sol satèl·lit i coneixem la seva posició i la distància que ens separa d'aquest, la nostra posició es trobarà en una àrea d'incertesa que és geomètricament una esfera. Si a continuació afegim un altre satèl·lit amb les seves corresponents dades de posició i distància , ara la nostra posició es trobarà sobre una circumferència intersecció de les dues esferes. Finalment, si disposem de tres satèl·lits nostra posició es redueix a dos punts en l'espai, dels quals un d'ells es pot rebutjar per ser una possibilitat incoherent (ja sigui per trobar-se a gran distància de la superfície de la Terra o movent-se a una velocitat impossible) Així doncs, 3 satèl·lits són suficients per determinar la nostra posició. Tanmateix, hi ha una sèrie de factors que afecten la mesura de la distància:
- Desfasament en el rellotge del receptor
Per aquestes raons, les distàncies calculades pel receptor GPS inclouen un terme d'error constant , denominant pseudodistancias, i es fa necessària l'obtenció d'una quarta mesura per determinar la seva posició exacta. Així doncs, hi ha un sistema de 4 equacions que ha de resoldre el receptor per obtenir la seva posició, així com la correcció que ha d'aplicar al seu rellotge per estar perfectament sincronitzat amb el rellotge atòmic de referència situat a Colorado Springs .
El sistema GPS va ser concebut inicialment com un projecte militar que permetés a soldats i vehicles conèixer la seva posició exacta, de manera que les autoritats nord-americanes van decidir que el sistema estigués disponible per a usos civils sota certes restriccions. Especialment, es va introduir intencionadament un senyal que alterés la precisió amb què els receptors calculen la seva posició. Aquest factor d'error es coneix amb el nom de disponibilitat selectiva, és aleatòria i varia constantment, normalment quan hi ha algun conflicte en què es veu involucrat l'exèrcit dels EUA Aquest fet dóna lloc a l'existència de dos tipus de serveis:
 - Estàndard (SPS)
- Precís (PPS)
El servei de posicionament estàndard permet una precisió horitzontal de 100 m i vertical de 156 m amb una precisió temporal de 340 ns. Per contra, el servei necessari està reservat per a usuaris autoritzats i permet precisions de 22 m horitzontalment, 27,7 m en vertical, i una precisió temporal de 100 ns.
Per a la transmissió, cada satèl·lit té dues freqüències coherents entre si: 
 - L1 a 1.575,42 MHz
- L2 a 1.227,6 MHz
Ambdues múltiples del oscil·lador de referència a 10,23 MHz, posteriorment, aquestes portadores es modulen amb codis pseudoaleatoris emprant la tècnica d'espectre eixamplat. El codi C/A (coarse Acquisition ) modula la portadora L1, la qual transporta el missatge de navegació i és la base del servei SPS . Aquest codi consisteix en una seqüència pseudoaleatòria de 1,023 MHz que es repeteix cada 1023 bits. S'ha escollit d'una família de codis ortogonals coneguda amb el nom de codis de Gray i cada satèl·lit, té un de diferent que li serveix de identificatiu.
Per la seva banda, el codi P (Precise) modula tant la portadora L1 com L2, sent la base del servei PPS. Aquest codi té una freqüència de 10,23 MHz i un període de 248-1 bits (molt llarg) , la qual cosa proporciona una durada de 7 dies. Tots els satèl·lits tenen el mateix generador de codi P , però a cada un se li assigna un dels 40 segments incorrelats de 7 dies de durada. D'aquesta manera, els satèl··lits no interfereixen entre si i poden ser identificats. En realitat, l'accés a la segona portadora està prohibit, ja que la disponibilitat selectiva s'implementa per mitjà dels errors introduïts per la refracció de la ionosfera i la troposfera, i s'ha demostrat que es pot estimar el seu efecte utilitzant dues freqüències diferents. D'aquesta manera, les aplicacions autoritzades tenen més resolució arran de la major freqüència del codi P ia la disponibilitat de dues freqüències per poder corregir els errors de propagació atmosfèrica.
 
La informació a transmetre dura 12,5 minuts i es transmet a una velocitat de 50 bit/s, encara que s'eixampla en freqüència per mitjà dels codis pseudoaleatoris. D'aquesta manera, els 50 bit/s de dades ocupen un ample de banda d'1 MHz amb el codi C/A i de 10 MHz amb el codi P. El codi C/  té com a missió facilitar la connexió al codi P per als usuaris autoritzats. Com és tan breu ( 1 ms ), és relativament senzill obtenir la fase del codi transmès per un determinat satèl·lit desplaçant el codi generat en el receptor fins que la correlació amb el senyal rebut sigui màxima . Una vegada que s'ha enganxat el receptor , llavors pot accedir a la informació modulada a 50 bit/s. En aquesta informació es troba la paraula HOW que indica l'estat del codi P , de manera que es pugui realitzar un ajust més fi a partir d'un lloc proper al que realment té .
L'estructura del missatge de navegació GPS consisteix en una supertrama composta de 25 trames de 1500 bits. Al seu torn, cadascuna d'aquestes trames es divideix en 5 subtrames de 300 bits cadascuna. Cada subtrama conté 10 paraules de 30 bits el significat és el següent:
 - Missatge de telemetria (TLM),
- Paraula HOW,
- Correccions als rellotges dels satèl·lits, 
- Vigència de les correccions imposades al rellotge (AODC),
- Retard de grup (TG ) per evitar l'efecte de la propagació ionosfèrica,
- Posició exacta del satèl·lit, 
- Prediccions dels paràmetres futurs,
- Vigència de les dades de l'almanac (AODE), 
- Missatges especials i 
- Dades de almanac global. 
 
Les dues primeres paraules són generades per cada satèl·lit, mentre que la resta es generen des del centre de control del sistema GPS .
L'almanac recull els paràmetres orbitals aproximats de tots els satèl·lits, descrivint les seves òrbites en períodes de temps prolongats (útils durant mesos en molts casos). La informació dura un total de 150 segons ( 7500 bits ), però atès que només s'inclou una paraula per trama (6 segons), són necessàries 25 trames per transmetre l'almanac complet. Així doncs, un receptor necessita de 12,5 minuts per obtenir l'almanac, encara que atès que la seva validesa s'estima en uns 6 mesos, la seva utilitat no és important si s'utilitza l'equip habitualment.
 

Eines per la gestió de l'autoconsum

Ingeteam ha entrat aquest anys en el llançament d'Eines Ingecon ® EMS , la seva nova plataforma de programari per la monitorització i configuració de sistemes d'autoconsum. Aquesta eina, que ja està disponible al lloc web Ingeteam per  ser descarregada de forma gratuïta, permet als usuaris l'accés a totes les dades de producció, consum i emmagatzematge de la instal·lació amb la informació en temps real sobre la relació autoconsum haver-se aconseguit. No obstant això, una característica encara més innovador, és la possibilitat de connectar i desconnectar algunes de les càrregues es a dir, la gestió "indoor".
Gràcies a aquesta nova aplicació d'Ingeteam, els propietaris de sistemes d'autoconsum ara poden obtenir informació en temps real sobre la quantitat d'energia que és produïda pel seu sistema, la quantitat d'electricitat que es consumeix de la xarxa elèctrica, l'estat de la capacitat de la bateria i el percentatge de la producció d'energia, ja sigui que s'emmagatzema o descàrrega per a ell. El que és més, els usuaris se'ls ofereix la possibilitat d'obtenir estratègies molt més eficients de consum mitjançant el control dels temps de connexió d'algunes de les càrregues en el sistema, per permetre que aquestes càrregues per operar en moments en que s'està generant la major quantitat d'energia .
L'accés a tota la informació del sistema i la configuració de les diferents estratègies de consum, és a través del programari d'eines INGECON ® ccsme que es comunica directament amb el  gestor INGECON ccsme ® instal·lat al sistema real d'autoconsum. El gestor INGECON ccsme ® s'encarrega de gestionar tots els elements presents en la instal·lació en tot moment.
 
A més, aquest nou programari de les eines INGECON ® EMS també s'ha provat amb l'addició d'un sistema d'emmagatzematge d'energia de la bateria, obtenint alguns resultats altament satisfactoris. Aquest tipus de sistema s'està regulant en molts països en el món  i es creu que creixeran significativament en els propers anys.
Amb aquesta iniciativa  Ingeteam , un cop més demostra que té la tecnologia necessària per a la instal·lació de sistemes d'autoconsum i per a la perfecta gestió d'aquestes instal·lacions a través d'aplicacions de programari, oferint als usuaris una àmplia gamma de possibilitats a l'hora de decidir sobre l'estratègia de consum d'energia més eficient.

Els ciberatacs

Els ciberatacs dels sistemes d'automatització estan augmentant mentre que la indústria està ampliant la possibilitat d'atac, implementant cada dia més xarxes Ethernet basades en IP. El món militar entén que sempre estan oberts als atacs per tant, l'enfocament dels militars és posar els actius sota protecció amb la finalitat  de reduir la "superfície vulnerable". En la indústria de les TIC, la superfície d'atac d'un sistema es considera la suma dels diferents punts en els quals es podem introduir dades, extreure dades  o prendre el control. El mateix cal per a un sistema d'automatització. 
El sector sembla reconèixer que els riscos d'atacs cibernètics contra els entorns de producció s'han incrementat dramàticament, incloses les infraccions intencionals, espionatge industrial, o atacs patrocinats per l'Estat. Aquests atacs poden provocar aturades no programades, les interrupcions en la disponibilitat dels equips  i les interrupcions de producció .
Les TIC reconeixen que estan més avançat els sistemes d'automatització industrial en sistemes proteccions cibernètics. Això és en part a causa que els sistemes operatius de programari i plataformes desplegades són més uniformes i COTS tecnologia ( Commercial  Off  The  Shelf ) , incloent Microsoft , Linux i SQL , de manera que les inversions en protecció del cyber poden ser compartits a través d'una base més àmplia. Els reguladors industrials que es basen en una àmplia gamma de sistemes operatius i programari de cadascun requereixen mecanismes de protecció únics. Els protocols Ethernet basats en IP són implementats pels proveïdors de controladors i sensors, que resideixen en els sistemes operatius no estàndard que requereixen mètodes únics de protecció cibernética.

 

Cada punt de connexió Ethernet estàndard addicional en un sistema d'automatització, augmenta les possiblitats d'atac cibernètic del sistema. Les estratègies bàsiques de la reducció de superfície d'atac són reduir el nombre de punts d'entrada per als usuaris que no es confía.

Defense  in  Depth
 
La idea darrere de l'enfocament de defense in depth,  és la defensa d'un sistema contra qualsevol atac en particular . És una tàctica basada en capes, concebuda per l'Agència Nacional de Seguretat ( NSA ) com un enfocament global de la informació i posar en pràctica la seguretat electrònica. La efense in depth és originalment una estratègia militar que tracta de retardar, en lloc d'impedir l'avanç d'un atacant, en cedir l'espai per tal de guanyar temps. La col·locació dels mecanismes de protecció, procediments i polítiques,  preténen augmentar la fiabilitat d'un sistema informàtic on múltiples capes de defensa han de prevenir l'espionatge i els atacs directes contra els sistemes crítics. Pel que fa a la defensa de la xarxa informàtica, les mesures de efense in depth no només han d'evitar violacions de la seguretat, sinó també comprar un termini suficient per detectar i respondre a un atac, el que  redueix mitiga  les conseqüències d'una violació.

En basar-se en la non-Ethernet industrial automation networks per al control en temps real de l'automatització, s'ofereix una capa que és més robusta pels hackers i en els quals hi ha un menor nombre d'eines de programari disponibles per a la pirateria. Si l'únic accés per comunicar-se amb l'automatització i control SCADA és a través d'un PC, llavors tenim més mètodes de protecció i programari disponibles per protegir el sistema.

 


 Dilema

La necessitat d'integrar la informació dels controladors amb els sistemes empresarials (per millorar l'eficiència i la productivitat) i la implementació de les proteccions de seguretat cibernètica, acaba donant com a resultat que uns  estan treballant un contra l'altre. La visió de les comunicacions Ethernet estàndard directes entre els sistemes de negocis i dispositius d'automatització, incloent controladors, sensors, unitats i actuadors, cal aconseguir una manera que els sistemes estiguin  protegits dels atacs cibernètics. Dissenyat la protecció de la seguretat cibernètica per Ethernet basada en IP per als controladors d'automatització industrial, SCADA, i altres dispositius que prendrà algun temps.

Per tant, en afegir Ethernet basada en IP en als nostres sistemes, sembla que s'estpa fent més vulnerable a atacs pels hackers


 
Font: Automation & Process Controls Network

 

dijous, 20 de febrer del 2014

La gestió de la generació distribuïda

La millor política de planificació de la distribució eléctrica, és anticipar-se als requeriments de telecomunicacions per la gestió d'aquesta. Si no es fa, els costos poden incloure la instal·lació de sistemes incompatibles o redundants, una incapacitat per escalar els sistemes en marxa i deriva en una  manteniment excessivament difícil o car és adir, la manca de planificació adequada pot portar al fracàs.
No és cap exageració dir que les importants economies d'escala associades amb la generació van estar entre els fonaments de l'energia elèctrica a primers segle XX. La construcció d'estacions  de generació i la distribució de l'energia cap als clients va ser, simplement, una manera de fer les coses.
En les últimes dues dècades han aparegut tecnologies de generació que desafien aquest model.
La quantitat de la generació distribuïda que s'afegeix a la xarxa moderna és significativa i continua creixent  de manera que s'ha convertit en part  integral de la indústria,  Hi ha països que considerem que la capacitat de suportar una varietat d'opcions, basades generació distribuïda i emmagatzematge,  esdevenen claus per les xarxes intel·ligents.
 Una planificació conjuntament amb la integració fiable i eficient dels recursos distribuïts del sistema elèctric, normalment acaben necessitant un nombre d'aplicacions tals com:
- Informació  d'energia horària i la facturació mensual .
- Dades en temps real conjutament amb els controls integrats del sistema SCADA 
- La coordinació de proteccions amb intercanvi de dades alta velocitat
Aquests diferents tipus d'aplicacions tenen,   causa de les diferents necessitats,  diversos tipus de connectivitat pel que fa les telecomunicacions. El problema dels serveis públics és que amb la ràpida expansió dels llocs distribuïts, la complexitat i costos fan incrementar el nombre de sistemes de telecos i el seus costos.
En avaluar les opcions de telecomunicacions es presenten tres consideracions clau:
- La preocupació per la latència,
- La fiabilitat. 
A més, aspectes  com ara la coordinació de l'operació  entre els equips de la subestació i els dispositius emplaçat on hi ha la generació distribuïda (DG), requereixen d'un sistema de comunicació fiable amb baixa latència.
Un  SCADA requereix un flux gairebé continu d'informació, però amb els requisits d'ample de banda limitat  també, les dades dels comptadors d'energia  per la facturació tenen requisits encara més baixos.
Hi ha diverses solucions que satisfan aquestes necessitats però, uns pocs que poden oferir molt més ample de banda del que actualment es requereix així doncs, una aplicaació que s'ha de basar en amples de banda grans són les aplicacions futures de vigilància  per la millora de la seguretat.
En analitzar les opcions wireless  en general, els tipus de latència necessari pel control d'un interruptor d'A.T. deslocalitzats, implica l'ús d'un parell de radies dedicats de ràdios els quals només es comuniquen entre si.
La connectivitat de fibra òptica és una altra opció utilitzada per algunes empreses de serveis en determinats llocs de generació distribuïda. Si bé aquest tipus d'enllaç pot proporcionar baixa latència i gran ample de banda te l'inconvenient de ser molt car per a implementa .
Per tant, a partir d'un anàlisi i un enfocament ben definit garanteix la coherència que fa que sigui més fàcil aplicar tenint en compte la utilitat d'escala per assegurar que les necessitats de tots els serveis i les aplicacions s'ajusten a la mida d'acord amb l'existència.
 
Sovint es diu que la falta de planificació equival al fracàs. Això sens dubte és cert per tecnologies com la generació i emmagatzematge distribuït que estan evolucionant ràpidament i cada vegada més  de manera que tendeix a superar la completa integració amb la xarxa.
 
font: IEEE

dimecres, 19 de febrer del 2014

Superconductivitat per a tots els públic

Superconductivitat
Alguns metalls presenten resistivitat zero a temperatures per sota d'un cert valor, denominat temperatura crítica. La superconductivitat implica resistència zero i, per tant, la persistència del corrent, encara que no hi hagi camp elèctric en el conductor. La figura mostra la brusca caiguda de la resistència del mercuri a 4,2 K. Recentment s'han aconseguit aliatges que presenten superconductivitat a temperatures més altes, de prop dels 90 K.
 
Història de la Superconductivitat
La història de la superconductivitat comença el 1911 a Leiden, Països Baixos. Allà H. Kamerlingh Onnes va desenvolupar les primeres tècniques criogenicas per refredar mostres fins a alguns graus per sobre del zero absolut (corresponents a zero Kelvin, és a dir, menys dos-cents setanta-tres graus centígrads). Va ser el primer que va aconseguir portar l'heli fins a sota del seu punt de licuefacció (4,2 º K) , obrint així el camp de les baixes temperatures. Al principi , Kamerlingh Onnes va "monopolitzar" completament aquest camp, de manera que Leiden va ser, fins a 1923, l'únic lloc del món que disposava d'heli líquid .
En aquelles èpoques es sabia que els metalls tenen una resistivitat que disminueix de manera pràcticament lineal amb la temperatura fins a uns vint Kelvin, i es volia saber que passava amb aquesta resistivitat en les proximitats del zero absolut:
Si seguia decreixent linealment? 
Si tendia , potser , a un valor constant? 
O bé, si es remuntaria cap a valors molt elevats, característics d'un comportament aïllant en lloc de conductor?
 
Kamerlingh Onnes es va adonar molt aviat que era necessari disposar de metalls molt purs, si volia obtenir resultats lliures de tota ambigüitat. Va triar el mercuri, element que es pot aconseguir amb un alt grau de puresa mitjançant successives destil·lacions i que a més és conductor en estat metàl·lic. D'aquesta manera, i refredant el mercuri a molt baixa temperatura, va poder observar un fenomen nou i totalment inesperat:
A una temperatura de 4,2 º K, el mercuri passava bruscament a un estat en el qual, sobtadament , no oferia resistivitat alguna al pas de el corrent elèctric. Aquesta transició es manifestava per una caiguda molt brusca de la resistivitat. Kamerlingh Onnes havia descobert la superconductivitat .
Poc després es va observar que aquesta transició a l'estat de superconductor es produïa en altres metalls, com el plom o el niobi, a temperatures crítiques lleugerament més altes. Posteriorment a partir dels anys 1930, la superconductivitat es va observar també en cossos compostos, principalment en aliatges. L'elevació de les temperatures crítiques  va ser prosseguint al llarg dels anys , amb un progrés lent però bastant regular. El 1973 la temperatura critica més elevada va ser de 23,3 Kelvin, amb un aliatge de niobi i germani ( Nb Ge ) . Tretze anys més tard la situació era la mateixa i la majoria dels físics havien acabat per convèncer-se que no podia arribar molt més lluny.
 
Cal tenir en compte que com més alta sigui la temperatura, més baix és el cost per assolir-la.
L'any 1960 es va demostrar que el titanat d'estronci (SrTiO) es fa superconductor, però amb una temperatura de transició molt baixa : 0,3 Kelvin . Posteriors estudis analitzats a Rüshlikon van permetre augmentar aquesta temperatura critica fins a 0,8 Kelvin mitjançant el dopat del compost amb niobi .
Deu anys més tard, a 1973, D.C. Johnston i els seus companys van obtenir un resultat més significatiu amb un òxid de titani i liti (Li- Ti - O) : una temperatura crítica de 13,7 Kelvin. El 1975, A.W. Sleight i els seus col · laboradors van observar una transició a 13 Kelvin en un compost de valència mixta: un òxid de bari i plom dopat amb bismut (BaPbBiO) . En aquesta formula el subíndex x indica la proporció de bismut substituïda en el plom.
Des de 1986 , data del seu descobriment dels superconductors de la temperatura relativament elevades plantegen difícils problemes als teòrics . Encara no se sap si el mecanisme responsable de l'agrupament dels electrons per parells que està en l'origen de la superconductivitat és o no semblant al dels superconductors convencionals.
 Aplicacions
Els superconductors tenen nombroses aplicacions actualment. Els imants més potents es fabriquen amb bobines de cables superconductors. Aquest és el cas dels imants que s'utilitzen en grans instal·lacions científiques , com els acceleradors de partícules i en medicina , com els aparells de ressonància magnètica nuclear. Els imants potents són també un component important dels generadors que transformen energia mecànica en electricitat (com és el cas dels generadors eòlics i hidràulics). L'ús d'imants produïts per bobines superconductores disminueixen les pèrdues mecàniques en la producció d'energies alternatives. D'aquesta manera disminueix de forma molt important el pes i les dimensions dels motors. A més l'ús de generadors superconductors disminueix la dependència en les escasses terres rares que componen els imants convencionals .
Amb superconductors es poden també fabricar detectors ultrasensibles de camps magnètics utilitzant l'efecte Josephson . Altres aplicacions que estan en major o menor mesura en desenvolupament són rellevants per a l'eficiència energètica (per ex. Cables que condueixen l'electricitat sense pèrdues d'energia) i transports ( trens que leviten ).
 
 
font: ICMM-CSIC

dimarts, 18 de febrer del 2014

Dessalinitzadora solar d'aigua

El receptor solar gegant instal·lat en un camp de blat, al cor agrícola de Califòrnia, gira lentament per seguir el sol i captar la seva energia.
La matriu, de 377 m, no genera electricitat, però en canvi genera calor que s'utilitza per dessalinitzar l'aigua.
És part d'un projecte desenvolupat per una àrea de San Francisco anomenat WaterFX que està aprofitant els recursos en aquesta regió àrida: els milers de milions de litres d'aigua que es troben just sota la superfície.

Finançada pel Districte d'Aigua Panoche amb fons estatals, la planta de dessalinització solar-tèrmica, tracta l'eliminació de les impureses de l'aigua de drenatge per la meitat del cost de la dessalinització tradicional.

Si la tecnologia demostra la viabilitat comercial  es preveu que la construcció d'una nova planta més gran.


Els components principals són:
- Un sistema parabòlic de 400 kW d'energia solar térmica, que s'utilitza per maximitzar la captació d'energia solar.
- Un circuit tancat, amb un fluid de transferència de calor que contingui oli mineral, el qual porta la calor a la bomba de calor que optimitza l'eficiència.
L'aigua que condensa es recupera per proporcionar la millor qualitat d'aigua purificada.
- L'emmagatzematge tèrmic s'utilitza per capturar l'excés de calor per al funcionament durant els temps quan no hi ha energia solar disponible, el que permet que el sistema funcioni constantment 24/7.

 Slide background

Equip d'automatització i monitorització remota permeten baixos costos d'operació .

 Principals avantatges:

- Sense consum de combustible 

- L'energia solar tèrmica és la principal font d'energia

- Limitar o eliminar l'ús de l'electricitat

- És modular i mòbil