Archivio agosto 2010

Bus di campo industriali

Nei mesi scorsi si è svolto presso il CRIT un tavolo di lavoro e confronto tra le aziende socie riguardante il tema della connettività per l’automazione industriale (Fieldbus e Industrial-Ethernet), con lo scopo di favorire la conoscenza delle diverse aziende, condividere le proprie esperienze e confrontarsi su tematiche di interesse comune.

In questa occasione è stato presentato il risultato dell’indagine interna realizzata nei mesi precedenti per costruire un quadro sintetico e rappresentativo delle competenze e delle esigenze delle aziende socie del CRIT.

I temi trattati sono stati:

  • Soluzioni fieldbus: stato dell’arte e tendenze.
  • Regole di selezione del fieldbus: quali sono considerate importanti dalle Aziende?
  • Ethernet industriale: stato dell’arte e tendenze.
  • Easy-to-use: la parametrizzazione del prodotto.

I principali standard attualmente implementati (o standardizzati) nelle aziende interrogate sono, nell’ordine, Profibus, CANopen e Modbus, tra i Fieldbus seriali, e EtherCAT, Ethernet/IP e Modbus TCP, tra gli standard Ethernet-based.

Dal confronto svoltosi fra le aziende partecipanti è emerso che la diffusione di uno standard influisce notevolmente sulla scelta della piattaforma da utilizzare. Uno standard largamente diffuso garantisce la disponibilità di un gran numero di componenti “ready-to-use”. L’elevata compatibilità tra i dispositivi permette di ridurre i costi di sviluppo del sistema.

I requisiti di compatibilità, se uniti alla possibilità di una diagnostica automatica semplice, influiscono notevolmente sui costi di manutenzione del sistema.

La progettazione del bus va fatta tenendo conto dei requisiti minimi da rispettare: cicli minimi, velocità di trasmissione, banda. I sistemi standard seriali (Profibus, CANopen, DeviceNet), sebbene ancora molto utili perché largamente diffusi, stabili e consolidati, tendono a essere sostituiti sempre più da quelli Ethernet-based. I nuovi standard Ethernet-based (EtherCAT, Profinet, Sercos III, Ethernet/IP, Etherner Powerlink) garantiscono connessioni real-time e flessibilità, perché basati su uno standard diffuso. In particolare, EtherCAT vanta le specifiche real-time più avanzate (velocità), unite ad una diffusione sempre più ampia dello standard.

, , , ,

Nessun commento

La logistica aziendale: scelte di automazione

L’attuale tendenza sempre crescente verso l’elevata varietà e complessità dei prodotti, il ridotto lead-time e la crescita dell’aspettativa sul livello di servizio offerto al cliente, hanno posto una notevole enfasi sulla capacità delle aziende di stabilire procedure logistiche regolari ed efficienti. Tali procedure assumono un ruolo vitale nella determinazione della competitività di un’azienda, considerando che i costi logistici costituiscono una parte significativa della totalità dei costi di produzione.

L’efficienza e l’efficacia di ogni rete distributiva è ampiamente determinata dalle procedure svolte all’interno dei nodi della rete stessa e cioè all’interno dei magazzini. L’entità dei costi logistici generati all’interno dei magazzini è infatti riscontrabile fin dalla fase di progettazione. Tale fase prende le mosse dalla descrizione funzionale per poi passare alla definizione delle specifiche tecniche, alla  scelta delle attrezzature e alla determinazione del layout. In ciascuno stadio occorre rispondere a criteri di performance di riferimento in termini di costi, profitti, capacità di stoccaggio, tempi di risposta.

La progettazione di un magazzino (così come una ri-progettazione) si configura come un’attività altamente complessa, che prevede in ogni fase il calcolo di trade-off tra obiettivi spesso contrastanti e la scelta tra diverse soluzioni disponibili.

Nell’ambito del progetto “Innovazione di processo mediante principi di automazione flessibile in un Flexible Assembly System multistazione”, è stata intrapresa un’attività il cui obiettivo è quello di valutare la fattibilità dell’implementazione di sistemi automatici per lo stoccaggio del materiale e l’asservimento della linea di montaggio, nell’ottica di una ri-progettazione del magazzino dell’azienda richiedente.

Le attività di analisi delle procedure logistiche di magazzino attuali, di rilevazione di dati riguardanti gli ambienti, le strutture, le risorse e gli strumenti in uso, nonché di studio delle caratteristiche dei prodotti processati, hanno orientato l’indagine tra le diverse soluzioni esistenti in grado di convertire l’assetto attuale del tutto manuale  in uno innovativo tramite l’introduzione di un adeguato livello di automazione.

Le attività di studio delle procedure utilizzate attualmente all’interno del magazzino e di raccolta di dati significativi sono state realizzate tramite:

  • Osservazione diretta;
  • Interviste agli operatori delle diverse aree;
  • Rilevazione empirica di tempi e quantità movimentate;
  • Raccolta dati da documentazione identificativa del materiale.

In seguito, il team di progetto è entrato in contatto con alcune aziende fornitrici di sistemi automatici per lo stoccaggio e la movimentazione industriale. Insieme a loro è stato portato avanti uno studio di fattibilità per definire un dimensionamento preliminare di alcuni scenari da proporre e per valutare l’ammontare degli investimenti previsti e i vantaggi derivanti dall’introduzione delle diverse soluzioni.

Tra i vantaggi che i sistemi automatici sono in grado di generare all’interno di realtà aziendali che hanno come priorità l’ottimizzazione di tempi e costi e l’incremento del livello di servizio offerto al cliente sono sicuramente da ricordare:

  • Automazione di entrata e uscita dei prodotti;
  • Risparmio dello spazio di stoccaggio;
  • Eliminazione degli errori derivanti dalla gestione manuale del magazzino;
  • Controllo e attualizzazione della gestione dell’inventario;
  • Operatività 365 giorni all’anno;
  • Incremento  della capacità di servizio ai clienti;
  • Ritorno rapido dall’investimento.

L’attività di progetto intrapresa è stata portata avanti al fine di presentare all’azienda cliente delle proposte concrete su cui basare le future scelte di investimento che abbiano come obiettivo primario l’ottimizzazione dei costi e la gestione di procedure logistiche efficienti, nonché abbiano, come conseguenza, un impatto positivo sull’ immagine globale dell’azienda.

, , ,

1 Commento

Il calcolo alla velocità della luce

Il mondo dei calcolatori sta per essere rivoluzionato da una nuova tecnologia giunta in avanzata fase di sviluppo presso l’Intel Photonics Technology Lab (Santa Clara, CA), diretto da Mario Paniccia: la sostituzione dei collegamenti in rame con quelli estremamente più veloci a fibra ottica, infatti, lascia presagire un vero e proprio salto tecnologico per supercomputer, laptop, smartphone e tutto quanto contiene una CPU collegata a diverse periferiche.

Intel Silicon Photonic Chip

Il chip al centro della scheda contiene 4 laser che convertono i segnali elettrici in impulsi luminosi. Gli impulsi viaggiano alla velocità della luce lungo collegamenti in fibra ottica. Credit: Intel

Ormai da anni le comunicazioni su lunga distanza sono realizzate mediante laser in fibra ottica, tuttavia ciò non è mai avvenuto, finora, all’interno del dispositivo elettronico: la vera novità della soluzione proposta dal team guidato da Paniccia, infatti, sta nell’aver integrato la codifica/decodifica dei segnali laser inviati in fibra ottica direttamente nel chip in silicio. Fino ad oggi, quando i dati arrivavano al computer mediante una fibra ottica, prima di entrare nel circuito elettronico dovevano essere decodificati da un dispositivo ottico separato dal chip in silicio. La tecnologia sviluppata da Intel, invece, eliminando questo passaggio ed integrando tutte le fasi del processo all’interno del silicio, consente di aumentarne notevolmente la velocità e le prestazioni.

Intel, nel corso dell’ultima settimana di luglio, ha presentato ufficialmente un protipo del dispositivo dimostrandone le strabilianti prestazioni: grazie all’introduzione della nuova tecnologia è possibile trasportare dati ad una velocità di 50 gigabytes per secondo, sufficienti a trasferire, ad esempio, un film completo in HD in un secondo. I dati elettronici inseriti nel chip vengono convertiti in impulsi laser che, dopo essere stati trasferiti via fibra ottica, vengono riconvertiti in segnali elettrici in poche frazioni di secondo.

Le potenzialità di tale tecnologia sono enormi: questi chips potrebbero sostituire le connessioni elettroniche fra i componenti principali di un computer (come il processore e la memoria) consentendo maggiore libertà ai progettisti di hardware a livello di layout (oggi circoscritte per via delle limitazioni imposte dalla capacità del rame di trasferire i dati, al massimo 10 gigabit per secondo), incrementando notevolmente le prestazioni finali dei dispositivi.

Il sistema presentato da Intel integra nel chip in silicio, delle dimensioni di un’unghia, 4 lasers che inviano dati alla fibra ottica in altrettante differenti lunghezze d’onda: l’integrazione di più chips, secondo quanto affermato dall’azienda americana, dovrebbe consentire di trasmettere un terabit per secondo. Sicuramente una soluzione del genere avrebbe ripercussioni notevoli sugli imponenti datacenters dei colossi del web come Google, Microsoft o Facebook. La possibilità, ad esempio, di allontanare la memoria dalla CPU, consentirebbe di migliorare notevolmente l’efficienza del raffreddamento di entrambi i dispositivi: considerando che per datacenter come quelli sopraccitati la metà dei costi di gestione deriva proprio dagli impianti di raffreddamento, è evidente l’impatto che il chip di Intel potrebbe avere in termini di riduzione dei costi, oltre che a livello di impatto ambientale.

I datacenter, tuttavia, non sono gli unici potenziali destinatari di una simile soluzione: come riferito da Paniccia, Intel ha sviluppato la tecnologia con l’intento di arrivare ad un prodotto low-cost che potesse essere integrato in tutta l’elettronica di conusmo (smart phone, laptop, televisori, ecc. ). Anche in questo ambito le potenziali ricadute sembrano essere particolarmente significative.

, , , , , ,

Nessun commento

Nel 2050 il mare fornira’ il 15% della domanda di energia

Pubblicata la Road Map Europea dell’Energia Oceanica 2010-2015

Fonte immagine: Flickr

Sfruttare la forza del mare per produrre energia è ormai realtà. In Europa una serie di progetti pilota già operativi indicano la strada per sfruttare la forza delle maree, delle correnti, delle onde. E sono proprio queste ultime che offrono il maggior potenziale energetico delle acque comunitarie.

La Road Map Europea dell’Energia Oceanica 2010-2050, pubblicata dall’Associazione Europea dell’Energia Oceanica, traccia un quadro della situazione di un settore che potrebbe seguire come evoluzione quello dell’eolico offshore. Secondo le proiezioni della studio politiche adeguate di sostegno, sia nell’aiutare lo sviluppo del settore sia eliminando ostacoli di carattere tecnico e pratico, potrebbero portare ad un impennata nella produzione di energia marina dal 2020 al 2050. La potenzialità è di passare da 3,6 GW, previsti nel 2020, a 188 GW nel 2050 con installazioni lungo le coste dell’Oceano Atlantico del Mare del Nord e del Mediterraneo. Un tale sviluppo permetterà di soddisfare il 15% del consumo energetico europeo pari ad un valore di 15 miliardi di euro l’anno. Sul fronte occupazione l’evoluzione del settore dell’energia marina potrebbe garantire, tra quarant’anni, 470.000 nuovi posti di lavoro.

Prosegui la lettura »

, , ,

Nessun commento

Le sorprendenti proprietà delle nanoferriti in dispersione

Adesivo Nanoreticolato

Adesivo reticolato con Nanoferrite

In senso generale, la nanotecnologia comprende le numerose tecniche utilizzate per creare strutture su una scala dimensionale inferiore a 100 nm. A questo livello di definizione assumono una particolare rilevanza i fenomeni quantici, i quali determinano spesso risultati non intuibili e diversi da quelli riscontrabili nella fisica classica. Inoltre, la presenza di nanoparticelle all’interno di un materiale implica un aumento delle aree superficiali rispetto ai volumi ed apre le prospettive della scienza della superficie e della catalisi.

A causa di queste caratteristiche delle nanoparticelle, è sempre più frequente trovare applicazioni industriali in cui esse vengono applicate in dispersione all’interno dei fluidi. Uno dei settori che sta ricevendo grande impulso da questa tecnologia è quello degli adesivi. Citiamo come esempio l’impiego di nanoferriti negli adesivi termoindurenti, nei quali una piccola quantità percentuale di nanoparticelle finemente disperse è sufficiente ad ottenere l’indurimento dell’adesivo in meno di un minuto, grazie a un processo di reticolazione a microonde. Durante il processo le nanoferriti sfruttano la compenente magnetica del campo MW, generando calore mediante un meccanismo di risonanza ferromagnetica,  tipica solo delle nanoparticelle. Il metodo si addice in particolare alla plastica e alla plastica rinforzata, in quanto queste ultime solitamente sono trasparenti alle microonde ed hanno una bassa conducibilità termica.

Un’altra suggestiva applicazione della nanotecnologia applicata ai fluidi si può riscontrare nei cosiddetti materiali ferrofluidi, dove la presenza di nanoparticelle di ferrite in sospensione in un tensioattivo consente di modificare le proprietà del liquido in maniera sorprendente, dando luogo ad effetti spettacolari grazie alla semplice applicazione di un campo elettromagnetico. Oltre all’indubbio effetto scenografico, questi materiali possiedono notevoli proprietà di tenuta, e sono idonei soprattutto all’impiego in ambiente sterile: si possono utilizzare, per esempio, nell’industria dei semiconduttori, nella robotica e nella meccanica in genere, oltre che in  abbinamento a fluidi di  tipo tradizionale. In conclusione, le possibili applicazioni dei materiali ferrofluidi lasciano certamente grande spazio all’immaginazione, e li candidano quindi a probabili protagonisti delle innovazioni tecnologiche dei prossimi anni.

, ,

Nessun commento