lunedì 25 luglio 2011

Come Sincronizzare i tuoi contatti su Android con Gmail

Tutti i telefoni Android sono open source perchè questi dispositivi funzionano sulla piattaforma di Google Sistema operativo.
Grazie alla sua natura aperta agli sviluppatori open source sono  in grado di sviluppare le applicazioni secondo le esigenze e necessità.
Dal momento che Android viene da una potente società come Google, che è un pioniere nelle applicazioni rivoluzionarie come You tube, Google Translate, Google Documenti, Google Earth, Google Latitude, G Posta per citarne alcuni e un elenco infinito che va utilizzarlo su base giornaliera. Che vanno dalla versione Android 1,6-2,1 alla versione più recente Froyo 2.2 questi telefoni sono altamente personalizzabili come questi telefoni sono dotati di una rivoluzionaria capacità di sincronizzare i video direttamente nel tuo tuo account youtube o anche in grado di creare, gestire e sincronizzare tutti i contatti con Mail G di Google .
La creazione e la sincronizzazione dei contatti con il Mail G è molto facile, con una semplice procedura è possibile ottenere questo, tutto il necessario è un Google Android, un attivo account di posta G, un elenco di contatti telefonici e, ovviamente, anche una connessione GPRS o se il telefono supporta la connessione Wi Fi allora anche Wi-Fi farà che è richiesto di aprire account di posta G dal dispositivo Android.
1. In primo luogo, tutto quello che dovete fare è accedere al proprio account di posta G da PC o laptop, una volta che avrete effettuato l'accesso, selezionare l'icona del contatto che si trova sulla sinistra dello schermo.
Non appena si clicca su questa icona, si verrà indirizzati a contattare area di gestione, ora cliccate su "+" firmato icona.
Dopo aver cliccato su "+", vi verrà chiesto di creare un nuovo contatto. Ora, inputate tutti i contatti e una volta fatto con tutte le voci è possibile fare clic sul link salvataggio.
Ora, ripetere questo processo fino a quando tutti i contatti vengono salvati.
Add Contacts image
2. Ora, è il momento di accedere al tuo account di posta G dal dispositivo Android in cui sono memorizzati i contatti. Una volta effettuato il login, andate al menu principale del dispositivo e selezionare l'icona contatti. Discesa la casella di controllo per portare la lista di opzioni. Selezionare il conto dall'elenco disponibile che è selezionare l'account di posta G.
Una volta che si seleziona l'account, attivare l'opzione di sincronizzazione dei contatti.
3. Ora avete sincronizzato il conto con successo con il dispositivo Android e tutti i contatti saranno trasferiti dal dispositivo. Ti permette di avere facilmente un backup di tutti i tuoi contatti di Gmail. Questo aiuta molto quando il telefono viene rubato o si blocca o giù anche se soffre di perdita di memoria. Come tutti i contatti sono sincronizzati con il vostro account di posta G, è possibile recuperare su uno qualsiasi dei smart phone come dispositivo di sostituzione non essere necessariamente Android.
Così, in soli 3 semplici passi avete riusciti a sincronizzare tutti i contatti con Mail G.

Funambol

Funambol

Da Wikipedia, l'enciclopedia libera
 
Funambol è una società americana che genera entrate dalla sua doppia licenza modello di business[1] che include software commerciale e libero open source mobile sincronizzazione dei dati Il software basato sul progetto principale Funambol.

Contenuto

 

Funambol, società con sede

Funambol è stato utilizzato come base di codice sorgente per diversi provider per l'utilizzo agli utenti finali. Il codice sorgente viene modificato, raffinato, e riadattata ad ambienti di posta differenti. Per esempio, ThinkPost.net basa il suo software di sincronizzazione di BlackBerry su Funambol e fornisce una valida alternativa a basso costo per la sincronizzazione di BlackBerry aftermarket utilizzando il codice sorgente di Funambol come base.

Funambol progetto

Il progetto principale Funambol è una libero e open source sincronizzazione del server mobile che fornisce e-mail push, PIM (Rubrica e calendario) e media (immagini, video, musica) sincronizzazione dei dati e la gestione dei dispositivi per i dispositivi wireless, sfruttando protocolli standard come SyncML. Per gli utenti, questo significa BlackBerry-Capacità simili sui cellulari delle materie prime.
Funambol è anche una piattaforma di sviluppo per applicazioni mobili. Esso fornisce C + + e Giava API client e lato server Giava API, e facilita lo sviluppo, il deployment e la gestione di ogni progetto mobile.
Funambol è costituito da diversi componenti, tra cui:
  • Funambol Server sincronizzazione dei dati: un server di applicazioni mobili, garantendo servizi di sincronizzazione per i client wireless e PC, tra cui push email.
  • Funambol Device Management: un Open Mobile Alliance Dispositivo di gestione server per gestire in remoto i dispositivi mobili.
  • Connettori Funambol: gateway ai file system, database, sistemi di posta elettronica e applicazioni per la sincronizzazione bidirezionale con le attuali risorse di dati.
  • Funambol client plug-in: estensori del protocollo e clienti per Microsoft Office Outlook, Mozilla Thunderbird (Sperimentale), Mozilla Sunbird (Sperimentale), Windows Mobile, BlackBerry, Palma, iPod, iPhone e Androide così gli utenti possono sincronizzare i loro messaggi e-mail e PIM dati (rubrica, calendario, attività e note) con il server.
  • Funambol Software Development Kit: strumenti per sviluppare applicazioni collegate a volte su dispositivi mobili (in Giava - Java SE e Java ME - E C + +) E aggiungere fonti di dati al server.

Storia

Il progetto Funambol è stato avviato nel 2001 dagli sviluppatori a causa della mancanza di una implementazione open source Java per la sincronizzazione mobile dei dati del dispositivo. Il nome originale del progetto era Sync4j, poi cambiato in Funambol. Il progetto Funambol è andato al di là del motore server originale, e ora include strumenti di amministrazione e client-side SDK per Java e C + +.

Industria riconoscimento

Il progetto è stato riconosciuto da gruppi industriali e analisti del settore a livello mondiale con numerosi riconoscimenti:

Log delle transazioni

Log delle transazioni

Da Wikipedia, l'enciclopedia libera
Nel campo delle banche dati in informatica , un log delle transazioni (anche log del database o di log binario ) è una storia delle azioni eseguite da un sistema di gestione di database per garantireda incidenti o guasti hardware. Fisicamente, un registro è un file di fatti degli aggiornamenti al database, memorizzato nella memoria stabile.
Se, dopo un inizio, il database si trova in un stato incoerente   o non è stato spento in modo corretto, il sistema di gestione di database in rassegna i registri del database per il commit delle transazioni e il rollback delle modifiche apportate da tali transazioni . Inoltre, tutte le transazioni che sono già impegnati ma i cui cambiamenti non sono stati ancora materializzato nella banca dati sono ri-applicato. Entrambi sono fatto per garantire atomicità e la durata delle operazioni.
Questo termine non deve essere confusa con altre, leggibili i log di un sistema di gestione di database fornisce di solito.

Anatomia di un log del database generale

Un record di log del database è costituito da
  • Log Sequence Number : un ID univoco per un record di log. Con LSN, i log possono essere recuperati in tempo costante. LSN più registri 'sono assegnati in ordine crescente monotonicamente, che è utile nel recupero di algoritmi , come ARIES .
  • Prev LSN : Un link per il record di log scorso. Ciò implica registri del database sono costruiti in lista collegata forma.
  • Numero di transazione ID : un riferimento alla transazione del database generazione del record di log.
  • Tipo : descrive il tipo di record del database di log.
  • informazioni sulle modifiche effettive che ha attivato il record di log devono essere scritti

Tipi di record di log del database

Tutti i record di log includono gli attributi registro generale di cui sopra, e anche altri attributi a seconda del loro tipo (che è registrato nel tipo di attributo, come sopra).
  • Aggiornamento Log Registrare note un aggiornamento (cambio) al database. Esso comprende queste informazioni aggiuntive:
    • PageId : Un riferimento alla pagina ID della pagina modificata.
    • Lunghezza e Offset : lunghezza in byte e l'offset della pagina sono di solito inclusi.
    • Prima e dopo Immagini : include il valore dei byte della pagina prima e dopo la modifica della pagina. Alcuni database possono avere i log che includono una o entrambe le immagini.
  • Log Registrare compensazione note il rollback di una particolare modifica al database. Ogni corrispondere esattamente un record altro Log Update (anche se il corrispondente record di log aggiornamento non è in genere memorizzati nel record di log di compensazione). Esso comprende queste informazioni aggiuntive:
    • undoNextLSN : Questo campo contiene il numero LSN del record di log successivo che deve essere annullata per la transazione che ha scritto l'ultimo log Update.
  • Record commit nota una decisione di commit di una transazione.
  • Interrompi registrazione nota una decisione di abortire e quindi rollback di una transazione.
  • Record Checkpoint osserva che un posto di blocco è stato fatto. Questi sono usati per accelerare la ripresa. Si registra le informazioni che elimina la necessità di leggere un lungo cammino nel passato del log. Questo varia a seconda dell'algoritmo checkpoint. Se tutte le pagine dirty vengono scaricate durante la creazione del posto di blocco (come in PostgreSQL ), potrebbe contenere:
    • redoLSN : Questo è un riferimento al primo record del log che corrisponde a una pagina sporca. cioè il primo aggiornamento che non è stata lavata al momento checkpoint. E 'qui che deve cominciare a rifare il recupero.
    • undoLSN : Questo è un riferimento al record più vecchio log delle più antiche in corso transazione. Questo è il record più vecchio log necessari per annullare tutte le transazioni in corso.
  • Record di completamento osserva che tutto il lavoro è stato fatto per questa operazione particolare. (È stato completamente commit o interrotta)

Tabelle

Queste tabelle sono mantenute in memoria, e possono essere efficacemente ricostruito (se non proprio, ad uno stato equivalente) dal registro e il database:
  • Tabella di transazione : La tabella contiene una voce per ogni transazione attiva. Questo include Transaction ID e LastLSN, dove LastLSN descrive il LSN del record di log più recenti per la transazione.
  • Tabella Pagina sporca : La tabella contiene una voce per ogni pagina dirty che non sono stati scritti sul disco. La voce contiene recLSN, dove recLSN è il LSN del primo record del log che ha causato la pagina per essere sporca.

Change Data Capture

Change Data Capture

Da Wikipedia, l'enciclopedia libera
 
Nel database , Change Data Capture (CDC) è un insieme di software design pattern usati per determinare (e traccia) i dati che ha cambiato in modo che l'azione può essere assunto con i dati modificati. Inoltre, Change Data Capture (CDC) è un approccio di integrazione dei dati che si basa sulla cattura di identificazione, e la consegna delle modifiche apportate ai dati aziendali.
Soluzioni CDC si verificano più spesso in data-warehouse ambienti dal catturare e conservare lo stato dei dati nel tempo è una delle funzioni principali di un data warehouse, ma CDC può essere utilizzato in qualsiasi sistema di database o archivio dati.
 

Metodologia

Sviluppatori di sistemi possono creare meccanismi di CDC in diversi modi e in ogni uno o una combinazione di strati di sistema da logica applicativa fino a storage fisico.
In un contesto semplificato CDC, un sistema informatico dispone di dati creduto di avere cambiato da un punto precedente nel tempo, e un sistema secondo computer ha bisogno di agire sulla base di che dati modificati. Il primo è la fonte, il secondo è il bersaglio. E 'possibile che la sorgente e di destinazione sono lo stesso sistema fisico, ma non cambia il design pattern logicamente.
Non di rado, più soluzioni CDC può esistere in un unico sistema.

 Timestamp sulle righe

Le tabelle in cui le modifiche devono essere catturati può avere una colonna che rappresenta il tempo di ultima modifica. Nomi come LAST_UPDATE, ecc sono comuni. Ogni riga, in ogni tabella che include un timestamp in quella colonna che è più recente rispetto l'ultima volta che è stato catturato dati è considerato sono cambiate.

  Numeri di versione sulle righe

Progettisti di database dare tabelle di cui le modifiche devono essere catturato una colonna che contiene un numero di versione. Nomi come version_number, ecc sono comuni. Quando i dati in un cambia fila, il suo numero di versione è aggiornata alla versione corrente. Un costrutto di supporto come ad esempio una tabella di riferimento con la versione corrente in esso è necessario. Quando un cambiamento avviene la cattura, tutti i dati con il numero di versione più recente è considerato sono cambiate. Quando la cattura cambiamento è completo, la tabella di riferimento viene aggiornata con un nuovo numero di versione.
Tre o quattro principali tecniche esistenti per fare CDC con numeri di versione, il paragrafo precedente è solo uno.

  Indicatori di stato sulle righe

Questa tecnica può sostituire o integrare i timestamp e versioni. E 'possibile configurare un'alternativa se, per esempio, una colonna di stato è impostato su una riga della tabella che indica che la riga è stata modificata (ad esempio una colonna booleana che, se impostata su true, indica che la riga è cambiato). Altrimenti, può fungere da complemento ai metodi precedenti, indicando che una fila, pur avendo un nuovo numero di versione o una data precedente, ancora non devono essere aggiornati sul bersaglio (per esempio, i dati può richiedere la convalida umano).

  Tempo / Versione / Stato sulle righe

Questo approccio combina i tre metodi precedentemente discussi. Come noto, non è raro vedere più soluzioni CDC al lavoro in un unico sistema, tuttavia, la combinazione di tempo, la versione e lo stato fornisce un meccanismo particolarmente potente e programmatori dovrebbero utilizzare come trio, ove possibile. I tre elementi non sono ridondanti o superflue. Il loro utilizzo permette insieme per la logica come, "Cattura tutti i dati per la versione 2.1 che ha cambiato tra il 2005/06/01 00:00 e 2005/07/01 12:00 dove il codice di stato indica che è pronto per la produzione."

  Trigger su tabelle

Può includere un publish / subscribe modello di comunicare i dati modificati a obiettivi multipli. In questo approccio, innesca eventi del registro che succederà al tabella delle transazioni in un'altra tabella coda che possono poi essere "riprodotte". Per esempio, immaginate una tabella Conti, quando le transazioni sono nei confronti di questa tabella, si innesca il fuoco che avrebbe quindi memorizzare una storia della manifestazione o anche i delta in una tabella coda separata. La tabella di coda potrebbe avere lo schema con i seguenti campi: Id, TableName, RowId, TimeStamp, funzionamento. I dati inseriti per il nostro campione del conto potrebbe essere: 1, Conti, 76, 2008/11/02 00:15, Aggiornamento. Progetti più complessi potrebbe registrare i dati effettivi che ha cambiato. Questa tabella di coda potrebbe essere "riprodotte" per replicare i dati dal sistema di origine a un bersaglio.
[Maggiori discussione necessaria]
Un esempio di questa tecnica è il modello conosciuto come il grilletto log .

  Log scanner su database

La maggior parte dei sistemi di gestione di database gestire un log delle transazioni che le modifiche apportate al record contenuto del database e dei metadati . Attraverso la scansione e interpretare il contenuto del log delle transazioni del database si possono memorizzare le modifiche apportate al database in modo non intrusivo modo.
Utilizzando i registri delle transazioni per Change Data Capture offre una sfida che la struttura, i contenuti e l'utilizzo di un log delle transazioni è specifico per un sistema di gestione di database. A differenza di accesso ai dati, non esiste uno standard per i registri delle transazioni. La maggior parte dei sistemi di gestione di database non documentano il formato interno dei loro registri delle transazioni, anche se alcuni di fornire interfacce programmatiche per il loro log delle transazioni (per esempio: Oracle, DB2, SQL / MP, SQL / MX e SQL Server 2008).
Altre sfide nell'utilizzo di log delle transazioni per Change Data Capture sono:
  • Coordinare la lettura dei registri delle transazioni e l'archiviazione dei file di log (software per la gestione del database di solito i file di log archivio off-line in maniera regolare).
  • Traduzione tra i formati di memorizzazione fisici che sono registrati nel log delle transazioni e dei formati logica tipicamente attesa dagli utenti del database (ad esempio, alcuni registri delle transazioni salvare solo differenze minime tampone che non sono direttamente utili per i consumatori, il cambiamento).
  • Trattare con modifiche al formato dei registri delle transazioni tra le versioni del sistema di gestione di database.
  • Eliminando modifiche non che il database ha scritto nel log delle transazioni e più tardi il rollback .
  • Trattare con modifiche ai metadati delle tabelle nel database.
CDC soluzioni basate sui file di log delle transazioni sono vantaggi che includono:
  • impatto minimo sul database (tanto più se si usa log per elaborare i log su un host dedicato).
  • non necessità di modifiche a livello di codice le applicazioni che utilizzano il database.
  • a bassa latenza per l'acquisizione modifiche.
  • l'integrità delle transazioni : la scansione di log può produrre un flusso di cambiamento che ripete le transazioni originale nell'ordine in cui sono stati commessi. Tale flusso di cambiamento includono le modifiche apportate a tutte le tabelle che partecipano alla transazione catturato.
  • c'è bisogno di cambiare lo schema del database

Che cosa è Flexviews

Che cosa è Flexviews?

Flexviews è un progetto unico open source. Flexviews è un'implementazione viste materializzate per MySQL. Esso comprende una semplice API che consente di creare viste materializzate e di aggiornarli. Il vantaggio di utilizzare Flexviews è che le viste materializzate sono aggiornati in modo incrementale , cioè i punti di vista vengono aggiornati in modo efficiente, utilizzando i registri speciali che registrare le modifiche alle tabelle del database. Flexviews include strumenti che creare e mantenere questi registri. Le viste create da Flexviews includono il supporto per JOIN e per tutte le funzioni di aggregazione importanti.
Ecco l'elenco dei requisiti di sistema di base:
http://code.google.com/p/flexviews/wiki/Requirements
È possibile trovare il manuale completo qui:
http://flexviews.googlecode.com/svn/trunk/manual.html
Potete trovare ulteriori informazioni nel wiki:
http://code.google.com/p/flexviews/w/list

Che cosa è una vista materializzata?

Una visione "normale" è una tabella virtuale che rappresenta il risultato di una query di database. Ogni volta che la vista si accede, il RDBMS deve eseguire la query per produrre il set di risultati per la vista.
Una vista materializzata è simile alla visualizzazione normale, tranne che i risultati sono memorizzati in una tabella di database reale, non uno virtuale. Il set di risultati è effettivamente memorizzato nella cache per un periodo di tempo. Quando i dati sottostanti cambia la vista diventa stantio. Per questo motivo, viste materializzate devono essere frequentemente "rinfrescata" per portare loro up-to-date.
Con il caching di dati set di risultati in una tabella reale, i dati si può accedere molto più rapidamente, ma a costo di alcuni dati potenzialmente out-of-date. E 'più utile in scenari di data warehousing, dove frequenti richieste delle tabelle di base reale può essere estremamente costoso. Dato che la vista materializzata è memorizzato come un vero tavolo, è possibile costruire indici su qualsiasi combinazione di colonne della vista, consentendo incrementi nella velocità drastica i tempi di risposta per le query che accedono a vista.

mercoledì 22 giugno 2011

Progetto data integration

Riferimento a progetto di data integration

La  data integration o ETL e' il sistema che consente la sincronizzazione delle base dati di ambienti informatici eterogenei e si articola fondamentalmente nel processo di estrazione dei dati dalle applicazioni, di trasformazione degli 
stessi e del loro caricamento nelle diverse applicazioni destinatarie.

data integration - italsystems

Riferimenti :
Software utilizzato   : TOS talend open studio (open source)
Personale tecnico    : Team tecnico professionale

martedì 14 giugno 2011

Funzioni dell’ETL

sabato, 20 marzo 2010

Funzioni dell’ETL e i principali tool software di ETL

Image002



I processi ETL (Extraction, Transformation and Loading - estrazione, trasformazione e caricamento) sono i componenti più importanti e con più valore aggiunto di un'infrastruttura di Business Intelligence (BI). Sebbene siano per lo più invisibili agli utenti della piattaforma di BI, i processi ETL recuperano i dati da tutti i sistemi operativi e li pre-elaborano per i tool di analisi e di reporting. La precisione e la tempestività dell´intera piattaforma di BI dipendono in larga misura dai processi ETL. I processi di estrazione, trasformazione e caricamento comprendono step multipli che hanno come obiettivo il trasferimento dei dati dalle applicazioni di produzione ai sistemi di Business Intelligence :
  • Estrazione dei dati dalle applicazioni di produzione e dai database (ERP, CRM, RDBMS, file ecc.);
  • Trasformazione di questi dati per la loro riconciliazione su tutti i sistemi sorgente, eseguire calcoli o parsing di stringhe, arricchirli con informazioni di lookup esterne e confrontare il formato richiesto dal sistema target (Third Normal Form Star Schema, Slowly Changing Dimensions, ecc.);
  • Caricamento dei dati risultanti nelle varie applicazioni BI: Data Warehouse o Enterprise Data Warehouse, Data Mart, applicazioni Online Analytical Processing (OLAP) o “cubi”, ecc.
La latenza dei processi ETL varia da batch (a volte mensilmente o settimanalmente, ma più spesso quotidianamente), a near-real-time con aggiornamenti più frequenti (ogni ora, ogni minuto, ecc).
Ci sono numerose difficoltà da fronteggiare per ottenere un´implementazione efficiente ed affidabile dei processi ETL. I volumi di dati crescono in maniera esponenziale, e i processi ETL devono elaborare grandi quantità di dati granulari (prodotti venduti, chiamate telefoniche, transazioni bancarie.).
Alcuni sistemi BI raramente vengono aggiornati incrementalmente mentre altri richiedono un caricamento completo ad ogni iterazione. Con l´aumento della complessità dei sistemi informatici, anche la disparità delle sorgenti aumenta. I processi ETL richiedono una connettività di vasta portata per i pacchetti di applicazioni (ERP, CRM, ecc.), database, mainframe, file, Servizi Web, ecc. Le strutture e le applicazioni di Business Intelligence comprendono data warehouse, data mart, applicazioni OLAP per l´analisi, il reporting, il dashboarding, lo scorecarding, ecc. Tutte queste strutture target hanno diversi requisiti di trasformazione dei dati e diverse latenze. Le trasformazioni coinvolte nei processi ETL possono essere altamente complesse. I dati devono essere aggregati, sottoposti a parsing, calcolati, elaborati statisticamente, ecc. Le trasformazioni specifiche BI sono anch´esse necessarie, come lo Slowly Changing Dimensions. Mentre la BI tende alla simultaneità real-time, i data warehouse e data mart devono essere aggiornati più spesso e le finestre di tempo del caricamento diventano sempre più brevi.

Alcuni Software ETL:

- SmartDB Workbench;
- Data Studio;
- Integrator;
- Informatica PowerCenter;
- Datastage IBM;
- SSIS Microsoft;
- I-service IngeniumTechnology;
- Scriptella ETL;
- Benetl;
- Oracle Data Integration Suite;
- Kettle Pentaho Data Integration.

p

Alcuni ETL Software

Alcuni ETL Software

Le principali alternative open source a Pentaho

Le principali alternative open source a Pentaho


I seguenti tre progetti open source rappresentano una valida alternativa a Pentaho nella realizzazione di progetti di Data Integration:
  • Talend: Questa soluzione di data management che è basata sulla piattaforma Eclipsecopre tutti gli aspetti di data integration, data quality e master data management. Usando il Talend Open Studio si può facilmente costruire jobs e processi attraverso una semplice ed intuitiva interfaccia grafica drag and drop. Utilizzando tale ambiente di sviluppo è possibile creare progetti sia in Java che in Perl.
  • Apatar: la seconda alternativa è rappresentata da un tool ETL di data integration tool in Java che fornisce una singola interfaccia per gestire tutti i progetti di integrazione. Utilizzando l'Apatar visual job designer anche i non esperti in programmazione potranno facilmente creare mappe e implementare trasformazioni. Tramite Apatar è possibile collegarsi a molteplici DB tra i quali Oracle, MS SQL, Sybase, DB2, MS Access, PostgreSQL e data sources JDBC.
  • Jitterbit Community Edition: l'ultima alternativa è rappresentata da un tool di integrazione per chi è un pò più tecnico. La versione community di Jitterbit include un designer per definire processi di integrazione, mapping drag and drop, connettività a centinaia di sistemi e tanto altro.

elenco architetture etl

Here is a list of Architecture Patterns, Design Patterns, and Solution Patterns in the Application and Information Architecture Domains.

Sub-Domain AreaArchitecture Pattern NameDesign PatternsSolution PatternsRelated Patterns
Data Integration/SOA
  • One-Way
  • Synchronous Request/Response
  • Basic Callback
  • Claim Check
Data Architecture
  • Custom Applications Databases
  • Packaged Application Databases
  • ETL
  • EAI
  • SOA
Business Intelligence
  • Transactional Reporting
  • Operational Reporting
  • Analytical Reporting
  • Transactional Reporting Data Access
  • Operational Reporting Data Access
  • Analytical Reporting Data Access
  • Analytical Dashboard Data Access
  • Operational Dashboard Data Access
  • Data Mining
  • ETL
  • EAI
  • TDS
  • Operational Data Store
  • Datamart
Master data management
  • Master Data Hub
  • Master Data Replication
  • Master Data Services
  • Master Data Synchronization
Data Modeling
  • Modeling Standards
  • Naming Conventions

Pentaho kettle solutions

Pentaho kettle solutions: building open source etl solutions with pentaho data integration

Pentaho kettle solutions: building open source etl solutions with pentaho data integration

Building open source etl solutions with pentaho data integration

Wiley & Sons Ltd.
di

Matt Casters, Roland Bouman, Jos Van Dongen

Disponibilità: immediata
€ 40,00 Iva Inclusa

Commento e descrizione
A complete guide to Pentaho Kettle, the Pentaho Data lntegration toolset for ETL This practical book is a complete guide to installing, configuring, and managing Pentaho Kettle. If youre a database administrator or developer, youll first get up to speed on Kettle basics and how to apply Kettle to create ETL solutionsbefore progressing to specialized concepts such as clustering, extensibility, and data vault models. Learn how to design and build every phase of an ETL solution. Shows developers and database administrators how to use the open-source Pentaho Kettle for enterprise-level ETL processes (Extracting, Transforming, and Loading data) Assumes no prior knowledge of Kettle or ETL, and brings beginners thoroughly up to speed at their own pace Explains how to get Kettle solutions up and running, then follows the 34 ETL subsystems model, as created by the Kimball Group, to explore the entire ETL lifecycle, including all aspects of data warehousing with Kettle Goes beyond routine tasks to explore how to extend Kettle and scale Kettle solutions using a distributed cloud Get the most out of Pentaho Kettle and your data warehousing with this detailed guidefrom simple single table data migration to complex multisystem clustered data integration tasks.

Pentaho Data Integration

Pentaho Data Integration (ETL)

PDF Stampa E-mail
ETL è l’acronimo, in inglese, di Extract Transform e Load. Indica quella tipologia di strumenti atti a
estrarre informazioni da diverse fonti, elaborarle e solitamente memorizzarle in un Data Warehouse (DB Repository).Pentaho Data Integration
I dati possono essere estratti da sistemi sorgenti quali database transazionali, comuni files di testo o da altri sistemi informatici (ad esempio fogli Excel).
Lo strumento ETL di Pentaho si chiama Pentaho Data Integration (o kettle) ed è un potente strumento con un approccio innovativo e orientato ai metadati; con un'interfaccia intuitiva, graficamente semplice, Pentaho Data Integration permette di integrare i dati con facilità per il programmatore. Grazie a questo strumento si possono incrociare i dati da più fonti e si ha la possibilità di aggiornare i dati in real time.