GNU/Linux >> Linux Esercitazione >  >> Linux

La sfida e la promessa dei big data

Con la crescita di Internet, è cresciuta anche la quantità di dati e la misura in cui i dati sono valutati, in particolare dal governo e dalle società quotate in borsa, sebbene anche le piccole imprese apprezzino le informazioni che raccolgono da Google Analytics e servizi simili. Lo stoccaggio e il controllo dei dati è considerato un modo straordinariamente efficace per fornire prodotti migliori; capire come le persone utilizzano siti Web e applicazioni; monitorare le prestazioni dei dipendenti; determinare il linguaggio di marketing più efficace; e altro ancora.

Secondo le proiezioni pubblicate da International Data Corporation, il mercato dei big data manterrà un CAGR del 26% fino al 2018, quando le vendite di servizi di big data raggiungeranno i 42 miliardi di dollari.

Il valore del mercato ci dice che le aziende stanno investendo ingenti somme di denaro in aziende specializzate nella raccolta, comprensione e integrazione di vasti pool di dati, in altre parole, servizi che possono trasformare le informazioni in risultati migliori.

Quanto sono importanti i big data? Bene, le persone dell'astronave sono nel gioco.

Chris Mattman della NASA afferma della ricerca del suo datore di lavoro in quest'area:"La NASA in totale sta probabilmente gestendo diverse centinaia di petabyte, avvicinandosi a un exabyte".

Forbes il collaboratore Joshua Steimle osserva che un exabyte è una quantità straordinariamente vasta di informazioni, 1 miliardo di gigabyte.

Inondato da un mare di numeri?

Con la tecnologia che abbiamo ora a disposizione, i dati possono accumularsi così rapidamente per le aziende da sovraccaricare i database tradizionali, sia in termini di conservazione che di senso. Le aziende non devono costruire missili per sentirsi un po' sopraffatte dall'enormità dei dati a loro disposizione, sostiene Steimle .

Chris Riquier, il capo Asia-Pacifico di Taylor Nelson Sofres, afferma di aver visto l'impatto in un'altra area:"La ricerca di mercato è stata fondata su rilevamenti e sondaggi". Ora, invece, viene fatto in tempo reale con le informazioni che fluiscono dai social media, dai motori di ricerca e da numerose altre fonti. Grazie all'attenzione dei tecnici sulla scienza dei dati e al continuo perfezionamento dell'analisi, Riquier ritiene che la nostra "capacità di reagire al mercato e prendere decisioni sia cambiata drasticamente".

Trovare modelli significativi all'interno dei big data è stato un mistero per molte aziende. Tuttavia, secondo un Harvard Magazine del 2014, gli ingegneri dei dati stanno costruendo sistemi così forti che la tendenza ad accumulare ed elaborare i dati il ​​più rapidamente possibile è quasi inevitabile rapporto. L'articolo suggerisce che le formule innovative del "grande algoritmo" consentiranno alle aziende di trarre vantaggio dalla connessione e dall'integrazione di archivi di dati, oltre a convertire i numeri in immagini più robuste e di facile utilizzo.

Attingendo a tecniche di ricerca consolidate nei campi della fisica e dell'astronomia, i tecnologi e gli esperti di cultura portano le loro diverse prospettive per affrontare l'argomento a vantaggio reciproco.

Gli autori di big data Viktor Mayer-Schonberger e Kenneth Cukier osservano che l'analisi dei dati non riguarda solo le scelte individuali, ma anche l'alterazione completa del modo in cui le aziende prendono decisioni di ampio respiro:dopotutto, l'analisi predittiva è destinata a essere all'altezza del suo nome, dando coloro che lo usano una sfera di cristallo onniveggente basata sulla logica.

I successi dei big data includono:

Google – Google ha ipotizzato che alcuni termini di ricerca fossero probabilmente indicatori del fatto che le persone stavano iniziando ad avere sintomi simil-influenzali. Applicando le proprie ipotesi alle ricerche in tempo reale, l'azienda è stata in grado di capire dove si stava diffondendo l'influenza più velocemente di quanto potesse fare il CDC.

Banca canadese – Oltre il confine, la Canadian Bank "usa Hadoop, un framework software open source creato da Apache", Steimle spiega, "per implementare un programma che consenta l'identificazione di riciclaggio di denaro e frode".

Dati e vita quotidiana

La NASA e Google sono esempi di alto profilo dell'attenzione ai big data, ma il suo potenziale è molto più ampio, estendendosi a qualsiasi azienda che desideri attirare l'attenzione online. È il carburante che alimenta l'ottimizzazione dei motori di ricerca e l'ottimizzazione dei social media. Gli imprenditori possono utilizzare gli Strumenti per i Webmaster di Google, combinati con i dati analitici dei social software, per sviluppare una presenza online di maggior successo.

Joe Hall, che aiuta i clienti a migliorare la loro presenza su Internet attraverso la sua azienda Hall Analysis, commenta che esistono due diversi modi di base per analizzare i dati per migliorare i risultati dei motori di ricerca:

  1. Esplorare i modelli all'interno di dati voluminosi che sono direttamente correlati a una particolare attività.

Uno dei clienti di Hall aveva più di 15 milioni di backlink, il che significa che molte, molte pagine web stavano inviando il loro traffico al suo cliente.

A quel livello cambia le regole per l'analisi dei backlink”, commenta Hall. La determinazione dei modelli all'interno dei dati diventa significativamente più complessa.

  1. Ottenere una comprensione più sofisticata della posizione attuale della propria attività e delle dinamiche del mercato nel suo insieme.

Osservare la relazione tra diverse variabili attraverso il software di analisi consente alle aziende di comprendere meglio come posizionarsi in modo prominente e come convincere più persone a rispondere a un elenco quando viene visualizzato nel motore di ricerca. Due importanti campi di studio sono analisi di correlazione e analisi del comportamento degli utenti , dice Hall.

Rilanciare i motori dei big data

Una tecnologia fondamentale per i data scientist e le aziende che utilizzano i loro servizi è il cloud computing premium. Dopotutto, le soluzioni di hosting VPS chiavi in ​​mano si basano sull'ottimizzazione di velocità, affidabilità ed efficienza attraverso la distribuzione virtualizzata delle risorse.

L'informatico Geoffrey Fox dell'Università dell'Indiana ha persino notato che il cloud è spesso più veloce di un supercomputer.


Linux
  1. Inode e il filesystem di Linux

  2. Il risultato di Ls * , Ls ** e Ls ***?

  3. Qual è la differenza tra Sudo Su – e Sudo Su –?

  4. Come verificare se un tubo è vuoto ed eseguire un comando sui dati in caso contrario?

  5. Domande frequenti su disco di sistema e disco dati

Linux sul mainframe:allora e adesso

Che cos'è Intel SGX e quali sono i vantaggi?

Spiegazione dei server Big Data

Apache Cassandra:funzionalità e installazione

I 15 migliori software econometrico e statistico per sistemi Linux

Qual è la differenza tra DMA e IO mappato in memoria?