Primitivni podatkovni tip je računalniški izraz, ki se uporablja za opis dela podatkov, ki privzeto obstaja v računalniškem programskem jeziku. Običajno vrednosti teh vrst podatkov računalniški programer ne more spremeniti. Na primer, če bi bil računalniški program opečna stena, bi bili primitivni podatkovni tipi posebna vrsta opeke, ki je ne bi bilo mogoče razčleniti ali dodatno izpopolniti. Primer primitivnega podatka je znak “a”; ta znak pomeni samega sebe in se uporablja za predstavitev bolj zapletenih informacij z združevanjem z drugimi informacijami. Medtem ko se natančni primitivni podatkovni tipi, ki so na voljo v katerem koli danem računalniškem programskem jeziku, razlikujejo od jezika do jezika, so cela števila in znaki osnovni primitivni podatkovni tipi, ki so na voljo v večini od njih.
“Znak” je eden od osnovnih primitivnih tipov podatkov, ki so na voljo v večini računalniških programskih jezikov, včasih pa ga imenujemo tudi v skrajšani obliki “char”. Ta vrsta podatkov vključuje večino posameznih simbolov, ki jih je mogoče vnesti v računalnik z enim pritiskom na tipko, kot je številčni simbol “5”, ločila, kot je “.”, in črka “b”. Izraz znak pa ne pomeni samo črke, številke ali ločila. Pod znak primitivnega podatkovnega tipa sodijo tudi kontrolni znaki, kot so delete, tabulator in backspace.
Na splošno je vse, kar je primitiven podatkovni tip, tudi tip vrednosti, kar pomeni, da podatki niso zelo izbirčni. Podatkov ni treba vedno zapisovati na enak način. Na primer, običajno ni pomembno, v kakšnem vrstnem redu so zabeleženi bajti, ki opisujejo podatke.
Eno področje, na katerem se nekateri programski jeziki razlikujejo, je njihova obravnava nizov. Kot izraz računalništva je niz zaporedje simbolov, kot so znaki. Nekateri programski jeziki imajo podporo za nize in jih obravnavajo kot primitivni podatkovni tip, medtem ko drugi jeziki nimajo osnovne podpore za podatkovni tip.
Cela števila so področje, kjer lahko računalniška strojna oprema vpliva na obdelavo primitivnih tipov podatkov. V terminologiji računalništva celo število predstavlja eno ali več matematičnih celih števil. Različne centralne procesne enote (CPU) imajo različne omejitve glede tega, koliko bajtov je mogoče uporabiti za predstavitev celega števila. Včasih je to nekaj, kar imajo računalniški programerji v mislih, da se njihovi programi lahko izvajajo na čim več različnih vrstah CPE-jev.