Mie imi vine in cap alta idee, mai putin probabila dar nu imposibila.
Cum nu exista o lume a robotilor tindem s-o vedem ca ceva simplu, o lume complexa a lor, nu incalca legile fizicii. O lume simpla tinde sa devina complexa, dovada, lumea biologica. Instinctele umane poate ca nu sunt chiar umane, ci sunt forme eficiente de a rezolva problemele in grup si a supravietui. In plus lumea robotilor fara indoiala va fi contaminata masiv de gandirea fabricantilor umani. Este foarte probabil, ca unii oameni sa-si faca parteneri de viata roboti.
Vor trebui sa aiba un instinct de conservare, vor fi constienti ca pot disparea ca entitate, vor gasi ca rational sa aibe o copie de securitate, planeta pamant ca orice alt punct din univers nu este un loc 100% sigur, cine ii fabrica ii face cu un scop, vor fi sclavii fabricantilor, vor exista o varietate enorma de roboti, dar cum stim ca oamenii sunt imprevizibili si capriciosi, vor lasa independenti unii roboti autosuficienti (chiar in ziua de azi se lasa mosteniri milionare unor animale de companie), apar doua clase, sau mai multe. Vor exista optimizari tehnologice, pe care ei le vor vedea ca utile pt., dar nu toti vor avea acces la ele. Pentru a obtine un obiectiv, vor putea scurta drumul, incalcand normele. Oricat de perfecti ar fi, intr-o lume compexa unii roboti pot incalca normele, cel putin unele mici, unde evaluarea este mai complexa. Apare si justitia, autoritatea.
Daca sunt multi roboti (milione) nu vor avea relatii unii cu altii in mod egal, daca autoritatea elimina un individ, sau se produce un accident (lumea oricat de avansata nu elimina accidentele), cei care aveau relatii (schimburi de informatii, ajutor reciproc) vor simti ca o pierdere de eficienta din grupul lor, va aparea cel putin teoretic ideea, ca mai tarziu cand circumstantele permit sa isi fabrice "amicul" din nou, doar au pe undeva copia de securitate, nu ?
Nu vor putea sti daca exista in alta parte a lumii extraterestrii ca fiinte naturale sau roboti artificiali si cum sunt acestia. Vor fi constienti ca universul este mare si nu vor putea elimina intrebarea daca acesti posibili vizitatori sunt agresivi sau nu. Pot gandi si optiunea ca acele fiinte sa fie enorm de inteligente si sa le ofere raspunsuri sau solutii (lumea robotilor nu va fi scutita de probleme). Oricat de bine ar simula cu inteligenta lor nu vor putea sa vada prea mult in viitor, iar unii care nu au suficienta inteligenta vor tinde sa afle de la cei de ultima generatie raspunsuri mai precise, pt. au nevoie de raspunsuri de acest fel ca sa aleaga mai eficient optiunile prezente.
Cu siguranta analizand legile impuse de oameni nu mereu le vor aprecia ca fiind eficiente, etice sau nu le vor intelege pe deplin.
In prima faza ii vor fabrica umanii, dar poate apare si situatia in care unii roboti dispun de suficiente resurse sa fabrice la randul lor altii dupa "bunul plac". Apare un fel de proprietate in afara comunitatii umane.
La inceput, nu vor avea istorie, aliante sunt o solutie naturala intre entitati, dar peste mii de ani vor avea un fel de cultura a lor, curente de gandire o ideologie.
Cand robotii vor avea, capacitatea sa analizeze etica, vor aprecia frumosul in felul lor, isi vor da seama ca sistemele aleatorii uneori ajuta sau incurca, apare un fel de speranta, oricat de inteligenti ar fi nu vor putea avea toate raspunsurile, noi stim ca o gandire avansata in afara de raspunsuri genereaza alte intrebari, o gandire foarte complexa tinde sa complice gasirea unui raspuns, nu vor gasi prea usor un sens al existentei lor. Vor fi constienti ca universul se raceste.
Si atunci poate aparea un fel de virus informatic, rezultat din atatea intrebari fara raspuns precis. Un fel de spiritualitate, adica raspunsuri temporale sau cel putin mai aproape de adevar.
Daca am astepta pana ce alte mamifere superioare (elefantul, gorila balena) ar ajunge evolutiv la inteligenta, nu putem exclude aparitia unei spiritualitati.