Ha többet-kevesebbet mozogtunk az információs technika újdonságai környezetében, sokat találkozhattunk a Big Data fogalommal. Ez a kifejezés nincs igazán definiálva. A lényege annyi, hogy a rengeteg termelődő információt mind eltároljuk, hogy később aztán kielemezve okosabbak legyünk tőle. Ez most úgy látszik visszaüt, és nagyot fog szólni.
A legnagyobb gondot nyilván az adattömeg folyamatos elhatalmasodása jelenti, amely jóval nagyobb mértékben növekedik, minthogy elemezni tudnánk. Az ilyen elemzéseket ugyanis nem elég csak lefuttatni a számítógépekkel, előbb ki kell találni, mit szeretnénk megtudni az adattömegből, és milyen módszerekkel. Ez eleve meglehetősen hosszú folyamat, és az eredmények értelmezése még csak ezután jön. Ráadásul ha valamit elnéztünk az elején, lehet az egészet elölről kezdeni.
Másik probléma a bőség zavara. Annyiféle adat és annyiféle feldolgozó létezik, hogy mindezek megfelelő összekapcsolása és kiválogatása egyre komolyabb utánajárást, tehát szintén időt vesz igénybe.
Az adatok ismétlődése is a Big Data fogalma ellen hárul. A történelem megismétli önmagát. Ezt már sokat hallhattuk, így van ez az gyűjtött adatok terén is. Egy idő után a legtöbb folyamat ciklikussá, ismétlődővé válik. Így a különböző ciklusok hatalmas adatmennyiségei, azok tárolása akár feleslegessé is válhat.
A jelenlegi helyzet szerint a becslések 2020-ra teszik azt az időszakot, amikor a Big Data keltette hullám egy új gondolkodásmód kialakulását idézi elő, amely aztán a következő időszak meghatározója lesz az adatfeldolgozás és adatbányászat terén.