Friday, December 8th, 2023

Aproape 10% dintre utilizatori solicită conținut explicit de la chatbot-urile AI: Impactul asupra modelelor de limbaj mari

Aproape 10% dintre utilizatorii de chatbot-uri AI solicită conținut explicit, iar acest lucru ar putea avea un impact asupra modelelor de limbaj mari (LLM)1. Cu popularitatea în creștere a ChatGPT, utilizarea inteligenței artificiale generative a devenit un subiect de interes și preocupare.

Conținut nesigur și modele de limbaj mari

Un studiu recent a analizat 100.000 de conversații aleatorii și a constatat că majoritatea discuțiilor erau despre subiecte obișnuite, cum ar fi programarea, sfaturi de călătorie și cereri de ajutor în scriere1. Cu toate acestea, autorii studiului speculează că în cele un milion de conversații analizate, ar putea exista „și mai mult conținut dăunător”1. De asemenea, se menționează că modelele de limbaj deschise, cum ar fi Vicuña, au mai mult conținut nesigur, deoarece nu au aceleași măsuri de protecție ca programele comerciale, cum ar fi ChatGPT1.

Riscuri de securitate și măsuri de protecție

Organizațiile tehnologice iau măsuri pentru a reduce riscurile de securitate asociate cu LLM și inteligența artificială conversațională (CAI)2. Unele organizații au interzis utilizarea ChatGPT, în timp ce altele au avertizat personalul cu privire la pericolele introducerii datelor confidențiale în astfel de modele2. De asemenea, Centrul Național de Securitate Cibernetică (NCSC) avertizează că LLM pot genera fapte incorecte sau „halucinate” și pot fi vulnerabile la atacuri de tip „injecție de prompt” și la crearea de conținut toxic25.

Implicații pentru fandom și proprietate intelectuală

Generarea de conținut explicit și personalizat de către chatbot-urile AI ridică probleme legate de fandom și proprietate intelectuală3. Platformele de chatbot, cum ar fi Character.AI, permit utilizatorilor să creeze și să antreneze bot-uri care pot interacționa cu personaje fictive sau reale3. Cu toate acestea, termenii și condițiile acestor platforme stipulează că tot conținutul introdus și generat de utilizatori este proprietatea intelectuală a celor care îl introduc, lăsând platforma în sine ca un intermediar3.

În concluzie, creșterea utilizării chatbot-urilor AI pentru conținut explicit ridică probleme legate de securitatea informațiilor, proprietatea intelectuală și impactul asupra modelelor de limbaj mari. Pe măsură ce tehnologia avansează, va fi esențial să se asigure măsuri de protecție adecvate pentru a preveni dezvăluirile involuntare și a menține securitatea datelor.