Tehnološka singularnost ali preprosto »singularnost« je večplasten koncept v futurizmu z več prekrivajočimi se in včasih nasprotujočimi si definicijami. Najbolj pravilno in najbolj vidno definicijo singularnosti je podal Vernor Vinge v svojem eseju The Coming Technological Singularity. Nanaša se na točko, na kateri se nadčloveška inteligenca tehnološko ustvari. Te nadčloveške inteligence bi nato lahko uporabile svojo možgansko moč in strokovnost za nalogo ustvarjanja dodatnih ali močnejših nadčloveških inteligenc, kar bi povzročilo učinek snežne kepe s posledicami, ki jih ne moremo predstavljati.
Izraz »tehnološka singularnost« je bil skovan po analogiji s singularnostjo v središču črne luknje, kjer naravne sile postanejo tako intenzivne in nepredvidljive, da naša sposobnost izračunavanja obnašanja snovi v teh okoliščinah pade na nič. V dialogih o Singularnosti se v povezavi z idejo nadčloveške inteligence pogosto omenja pojem pospeševanja tehnoloških sprememb. Nekateri so trdili, da bo s povečanjem naklona tehnološkega napredka dosegel vrhunec v asimptoti, vizualno podobno matematični singularnosti.
Vendar ta pojem singularnosti ni enak, kot ga je nameraval Vinge; ki se nanaša na nastanek nadčloveške inteligence, skupaj z nadčloveškimi hitrostmi mišljenja. (Vključno s pametnostjo, sposobnostjo razumevanja in ustvarjanja konceptov, spreminjanja podatkov v teorije, ustvarjanja analogij, ustvarjanja itd.) Čeprav bi nadčloveške inteligence, ki ustvarjajo dodatne nadčloveške inteligence, dejansko povzročile pospeševanje tehnološkega napredka, napredek ne bi postal neskončen, v smislu, ki bi ga predlagala matematična singularnost.
Ker bi bile nadčloveške inteligence po definiciji pametnejše od katerega koli človeka, naša sposobnost napovedovanja, česa bi bili sposobni z dano količino časa, snovi ali energije, verjetno ne bo točna. Nadčloveška inteligenca bi lahko oblikovala delujoč superračunalnik iz poceni in zlahka dostopnih komponent ali razvila popolno nanotehnologijo z ničemer kot z atomsko silo mikroskopom. Ker bi sposobnost nadčloveške inteligence za načrtovanje in izdelavo tehnoloških pripomočkov hitro presegla najboljše napore človeških inženirjev, bi lahko bila nadčloveška inteligenca zadnji izum, ki bi ga človeštvo kdaj moralo narediti. Zaradi njihovega nadčloveškega genija in tehnologij, ki bi jih lahko hitro razvili, bi lahko dejanja inteligence, ki izhajajo iz tehnološke singularnosti, povzročila izumrtje ali osvoboditev celotne naše vrste, odvisno od odnosa najmočnejših nadčloveških inteligenc do ljudi.
Oxfordski filozof Nick Bostrom, direktor Oxfordskega inštituta za prihodnost človeštva in Svetovne transhumanistične organizacije, trdi, da bo način, kako nadčloveške inteligence obravnavajo ljudi, odvisen od njihovih začetnih motivov v trenutku njihovega nastanka. Prijazna nadčloveška inteligenca bi v želji, da bi ohranila svojo prijaznost, rodila prijazne (ali prijaznejše) različice sebe, ko bi se spirala samoizboljševanja nadaljevala. Rezultat bi lahko bil raj, v katerem nadčloveške inteligence rešujejo svetovne probleme in ljudem nudijo sporazumno izboljšanje inteligence. Po drugi strani pa bi zlonamerna ali brezbrižna nadčloveška inteligenca verjetno proizvedla več istega, kar bi povzročilo naše nenamerno ali namerno uničenje. Zaradi teh razlogov je lahko tehnološka singularnost najpomembnejši mejnik, s katerim se bo naša vrsta kdaj soočila.
Analitiki in zagovorniki Singularityja so predlagali več poti do nadčloveške inteligence. Prva je IA ali pomnoževanje inteligence, ki vzame obstoječega človeka in ga preoblikuje v nečloveško bitje z nevrokirurgijo, povezovanjem možgani in računalnikom ali morda celo povezovanjem možgani-možgani. Druga je umetna inteligenca ali umetna inteligenca, ustvarjanje dinamičnega kognitivnega sistema, ki prekaša ljudi po sposobnosti oblikovanja teorij in manipuliranja realnosti. Kdaj bo katera koli od teh tehnologij dosegla mejno raven sofisticiranosti, ki je potrebna za proizvodnjo nadčloveške inteligence, ni gotovo, vendar številni strokovnjaki, vključno z Bostromom, navajajo datume v obdobju 2010–2030 kot verjetne.
Ker je Singularnost morda bližja, kot bi mnogi domnevali, in ker lahko začetni motivi prve nadčloveške inteligence določijo usodo naše človeške vrste, nekateri filozofi-aktivisti (»Singularitarci«) na Singularnost gledajo ne le kot na temo za špekulacije in razprave, ampak kot praktičen inženirski cilj, pri katerem je danes mogoče doseči pomemben napredek. Tako je Eliezer Yudkowsky leta 2000 ustanovil Inštitut za umetno inteligenco Singularity, ki deluje izključno v smeri tega cilja.