Ens està prenent la davantera la Intel·ligència Artificial en diferents escenaris com en el laboral? Podrien aquestes tecnologies deixar-nos sense treball o, per contra, millorar-lo? És possible que també acaben substituint les relacions humanes i el tan desitjat concepte de l’amor, tal com l’enteníem fins ara? Pot ser ChatGPT el final de Google? Skynet i Matrix prendran consciència de si mateixos i acabaran amb l’espècie humana? Què succeiria si persones amb mala intenció sumen les capacitats de diferents intel·ligències artificials per al ciberdelicte, o per a generar faules i influir en l’opinió pública?

Aquestes, entre moltes altres preguntes, són qüestions que s’estan posant sobre la taula del debat social. Algunes més serioses i científiques i altres que serviran per a noves seqüeles de llargmetratges de Hollywood. No obstant això, cal estar atent. Encara que semble distòpic o llunyà, ja hem vist com la IA pot prendre el control de la domòtica de la nostra llar o com un chatbot, com ChatGPT, està sent utilitzat per milions de persones en el món que intenten que els substituïsca en les seues necessitats personals o laborals sense que els seus caps o clients se n’adonen. Això sí, aquesta no sembla una estratègia adequada, ni intel·ligent.

A mesura que es generalitza l’ús de ChatGPT i altres models lingüístics basats en IA, és important tenir en compte els riscos potencials que poden suposar per a la societat i el mercat laboral. Una de les principals preocupacions és que aquests models puguen automatitzar determinats llocs de treball, provocant pèrdues d’ocupació i problemes econòmics. A més, preocupa que la tecnologia puga utilitzar-se amb finalitats negatives, com difondre informació errònia o suplantar la identitat de persones en línia. «Hem de començar a parlar sobre la utilitat que poden tenir per al ciberdelicte organitzat i per a la formació en males pràctiques de nous seguidors», assenyala Hervé Lambert, Global Consumer Operations Manager de Panda Security.

Què és ChatGPT?

ChatGPT és una de les noves eines preferides dels usuaris a Internet. Aquesta aplicació ha estat desenvolupada per OpenAI i consisteix en un potent model de llenguatge que ha estat entrenat amb una gran quantitat de dades de text. El seu èxit ve de la seua capacitat per a generar respostes similars a les humanes a preguntes en llenguatge natural, la qual cosa el converteix en una eina popular per a una àmplia gamma d’aplicacions, com chatbots, creació de continguts i anàlisis de dades.

A quin ciberriscos ens exposem en utilitzar el ChatGPT?

Millorar el codi d’un virus

Aquesta plataforma permet que milions d’usuaris tinguen respostes automàtiques i més ràpides a preguntes que ja per si mateix podien buscar-se en Google. «El que fa és facilitar la gestió del temps i això, quan es tracta d’un ús inadequat, pot causar conseqüències irreversibles i importants» puntualitza el ciberexpert.

En aquest cas es pot entrenar al bot perquè, per exemple, millore el codi d’un virus. «Cal aclarir que ChatGPT no escriu un codi de malware encara que li demanes, ja que s’han establert límits o, més ben dit, protocols de seguretat per a identificar sol·licituds inapropiades», assenyala Lambert. Però els ciberdelinqüents estan intentant saltar-se aquests protocols i, «en alguns casos ja s’ha aconseguit», per la qual cosa presumiblement, sí que es podria arribar a millorar el codi d’un virus.

Desinformació generalitzada

La capacitat de ChatGPT per a generar respostes similars a les humanes a preguntes de llenguatge natural pot utilitzar-se per a difondre informació errònia. Per exemple, un ciberdelinqüent podria utilitzar el model per a generar notícies falses o missatges en les xarxes socials dissenyats per a influir en l’opinió pública o pertorbar unes eleccions. «Qualsevol espai a la xarxa en el qual s’intercanvien idees, coneixement, etc., augmenta el risc que tornem a sentir parlar de bots, filtres bombolla i mentides que es viralitzen», postil·la el ciberexpert. A més, mostra la seua preocupació per les manipulacions de diferents temes o les alteracions de les preferències del públic, originades inicialment en l’esfera virtual, amb repercussió directa en les decisions de vots o eleccions.

Doxing per a danyar empreses i manipular el mercat

Seguint amb el punt anterior, un mal ús de ChatGPT podria servir per a dur a terme la difusió de notícies falses sobre una empresa o producte. En dos vessants diferents: «D’una banda, podria soscavar la reputació i imatge digital d’una empresa o personalitat pública o, d’altra banda, podria utilitzar-se per a afectar els preus de les accions i causar pèrdues financeres als inversors», comenta Lambert.

Suplantació d’identitat i engany a menors

Aquesta eina pot transformar la forma en què les persones interactuen o comparteixen dades. Un ciberdelinqüent podria utilitzar el model per a crear un perfil fals en les xarxes socials o un chatbot que semble ser una persona real, i després utilitzar-ho per a dur a terme estafes i robatori de credencials i dades bancàries.

«El realment preocupant també és que un pot fer-se passar per un altre nen i enganyar-lo, abusant de la seua falta d’experiència i confiança», comenta Hervé Lambert, Global Consumer Operations Manager de Panda Security: «Aquest potencial significa un millor accés a la informació i un millor control de les comunicacions i òbviament influeix en la percepció dels nens a compartir més».

Escriure emails per a fer phishing

I no únicament afavoriria el nombre de ciberatacs de phishing, sinó que també perfeccionaria el contingut en molts contextos, països i idiomes diferents. «Seria molt més fàcil clonar una acció delictiva d’èxit a Espanya i llançar-la en 40 idiomes diferents, països diferents amb usos i regles una mica diferents», explica Lambert.

«Tinguem en compte que bona part dels emails, SMS i Whatsapps de phishing que rebem són traduccions molt dolentes, la qual cosa ens facilita molt la seua detecció. Però, si els hackers comencen a usar aquesta IA per a traduir els seus missatges, serà molt més difícil adonar-se de l’engany» afegeix Hervé Lambert.

Usar ChatGPT per a crear deepfakes

Seria possible que a través d’aquesta mena d’eines pogueren desenvolupar-se bots capaços de copiar la veu, imatge, moviments gestuals i corporals, la manera d’actuar i de parlar d’una persona real. «I fins i tot, la manera d’usar les emocions», apunta Lambert.

Suplantació d’identitat a través de nous models de llenguatge per veu

Encara que hi ha moltes més tecnologies, podem posar l’exemple de Microsoft, que ha desenvolupat el seu enfocament de modelatge de llenguatge per a la síntesi de text a veu. Es diu VALL-E i és una eina IA capaç de reproduir la teua veu de forma gairebé idèntica després de només sentir-te parlar durant tres segons. «Per posar un exemple, aquest tipus d’aplicacions, ja siga la IA de Microsoft i la de chatGPT podrien generar converses gairebé instantànies per a enganyar a algú en una trucada telefònica o per a deixar-te missatges en la bústia de veu, o en un àudio de Whatsapp», assenyala el ciberexpert.

En quins altres aspectes pot afectar el mal ús d’aquestes eines de IA a altres àmbits?

Ens referim al rendiment acadèmic. En aquest sentit, el ciberexpert és contundent: «Si ja teníem molta feina amb tota la població global quant a l’educació en ciberseguretat, ara el repte es complica encara més. L’ús que fem d’aquesta mena d’eines pot determinar el rumb acadèmic de milers d’escolars, i cosa que és més important, parlem de la capacitat de superació i aprenentatge de les persones. Com que molts veuen ChatGPT com una solució per a fer tasques que consideraven avorrides, sense intentar posar algun esforç de la seua part, quina base cultural estem deixant llavors a les noves generacions?», finalitza Hervé Lambert, Global Consumer Operations Manager de Panda Security.

Comparteix

Icona de pantalla completa