
Platforma de mesagerie Telegram a devenit una dintre principalele vitrine pentru partajarea de articole, cărți și știri științifice, dar și un spațiu în care proliferează [probleme nespecificate]. imitații ale unor edituri academice de topUn studiu realizat în Spania a oferit o soluție cifră foarte clară la o problemă pe care mulți o suspectau, dar care abia fusese riguros cuantificată.
Conform acestei cercetări, condusă de Universitatea din Granada (UGR)Aproape opt din zece canale Telegram care operează sub numele unor importante edituri științifice internaționale nu sunt oficiale. Mai exact, s-a detectat că în jur... 78% dintre canalele atribuite acestor editori sunt false, un procent deosebit de îngrijorător într-un context european marcat de lupta împotriva dezinformării științifice.
Proliferarea farselor și a conținutului dubios deghizat în conținut academic continuă să crească, iar această lucrare oferă o posibilă explicație: Telegram găzduiește un... O rețea largă și organizată de canale care se prezintă drept edituri științifice să distribuie materiale neautorizate, să ofere servicii de publicare pretinse și să exploateze reputația unor instituții prestigioase. Spania, ca parte a ecosistemului științific european, nu este imună la efectele acestui fenomen.
Autorii studiului susțin că acest mediu de pe Telegram nu este un caz izolat, ci mai degrabă un simptom al unei lipsa prezenței oficiale și verificate de către editorii înșișiAceastă lacună permite actorilor rău intenționați să se poziționeze în prim-planul comunicării științifice pe platformă, influențând numărul de utilizatori care accesează cărți și articole.
O hartă a fraudelor în canalele editorilor științifici

Lucrarea a fost efectuată de către Unitatea de Științe Umaniste și Sociale Computaționale (U-CHASS) de la Universitatea din Granada. Cercetătorii Victor Herrero Solana și Carlos Castro Castro Ei și-au propus să analizeze ecosistemul canalelor Telegram care se prezintă ca fiind legate de mari edituri academice și să măsoare în ce măsură această legătură este reală.
Pentru a face acest lucru, au selectat 13 edituri științifice internaționale de topPrintre acestea se numără edituri cunoscute precum Elsevier, Springer, Wiley-Blackwell, Nature și Cambridge University Press. Selecția a fost făcută ținând cont de greutate pe portalul SCImago, unul dintre cei mai utilizați indici pentru evaluarea producției științifice globale.
Odată ce lista editorilor a fost stabilită, cercetătorii i-au localizat pe Telegram. 37 de canale care ar putea fi asociate cu aceste mărcifie prin utilizarea numelui, logo-ului sau a unor referințe directe la colecțiile și publicațiile lor. Obiectivul a fost dublu: pe de o parte, să se verifice dacă aceste canale aveau o relație oficială cu editorii; pe de altă parte, să se identifice tipare de comportament în rândul celor care s-au dovedit a fi frauduloase.
Rezultatele au fost clare. Dintre cele 37 de canale analizate, doar Opt au fost confirmate ca fiind autentice și legate direct de edituriAdică, doar 21,62% dintre canale s-au dovedit a fi legitime, comparativ cu un 78,38% dintre canalele false au folosit identitatea acestor instituții fără autorizațieÎn practică, un utilizator care caută un canal Telegram „oficial” are mult mai multe șanse să ajungă într-un spațiu fraudulos decât într-unul real.
Studiul a fost publicat în revista academică „IDB: Texte universitare de biblioteconomie și știința informării”În numărul din decembrie 2025, sub titlul „Principalii editori științifici din canalele Telegram: o abordare pentru detectarea canalelor false cu ChatGPT și DeepSeek”, dincolo de cifre, cercetarea descrie o ecosistem profund distorsionat ceea ce prezintă riscuri atât pentru comunitatea științifică, cât și pentru cititori și studenți.
Un studiu de pionierat care utilizează ChatGPT și DeepSeek

Unul dintre cele mai inovatoare aspecte ale lucrării este metodologie bazată pe inteligența artificialăCercetătorii de la Universitatea din Granada au fost pionieri în utilizarea... Modele lingvistice (LLM), cum ar fi ChatGPT și DeepSeek pentru a ajuta la determinarea dacă canalele analizate erau oficiale sau nu, combinând capacitățile lor analitice cu o analiză umană ulterioară.
Designul cercetării a fost structurat ca o studiu de caz multipluPentru fiecare dintre cele 37 de canale identificate, un prompt standardizat care a fost trimis atât către ChatGPT, cât și către DeepSeek, activând funcție de căutare pe web a acestor modele. Ideea era ca inteligența artificială să poată verifica, în timp real, existența linkurilor către pagini corporative, conturi verificate și alte semne de autenticitate.
Misiunea modelelor era să evaluează probabilitatea ca fiecare canal să fie oficial, pe baza unor indicatori precum consecvența dintre conținut și linia editorială a mărcii, prezența unor link-uri fiabile către site-uri web instituționale, existența unor logo-uri și denumiri corecte sau trimiterea la politici editoriale recognoscibile.
Odată ce au fost obținute clasamentele ChatGPT și DeepSeek, echipa UGR a efectuat o verificare manuală independentăcare a servit drept adevăr fundamental. Cu alte cuvinte, inteligența artificială nu a avut ultimul cuvânt: cercetătorii și-au comparat propriile căutări și verificări cu răspunsurile modelelor pentru a determina dacă fiecare canal era autentic sau fals.
Această abordare a permis demonstrarea faptului că LLM-urile pot fi instrumente utile pentru screening-ul inițial la scară largă, așa cum a demonstrat și Închideri de canale din cauza trailerelor false cu inteligență artificialăîn special pe platforme cu mii de canale și un volum de informații dificil de gestionat exclusiv manual. Cu toate acestea, el a precizat, de asemenea, că, începând de astăzi, Acestea nu pot înlocui complet judecata experților când vine vorba de validarea conturilor sensibile, cum ar fi cele ale editorilor științifici.
Cum funcționează canalele false pe Telegram
Analiza detaliată a celor 37 de canale a permis reconstrucția unui model destul de omogen pe Cum operează pe Telegram cei care se dau drept editori științifici?Cea mai comună practică este distribuirea în masă a cărți, manuale și articole în format digital fără autorizație, sub promisiunea accesului gratuit sau a descărcărilor directe la titluri care sunt de fapt protejate de drepturi de autor.
Pe lângă această circulație neautorizată de conținut, multe dintre canalele frauduloase oferă servicii editoriale care sunt greu de credibilcum ar fi publicarea de lucrări în reviste cu impact ridicat în intervale de timp foarte scurte sau garantarea acceptării articolelor fără un proces standard de evaluare inter pares. Acest tip de afirmație este deosebit de periculos pentru cercetători începători, doctoranzi și profesioniști cu puțină experiență în circuitul publicațiilor academice.
Cercetătorii au detectat, de asemenea, o utilizare recurentă a limbaj extrem de promoționalMesajele amintesc mai degrabă de campanii de marketing agresive decât de comunicarea sobră tipică editurilor științifice. Promisiunile de reduceri, „oferte speciale” și avantaje nerealiste abundă, ceea ce este șocant în comparație cu modul în care comunică de obicei sectorul academic.
În unele cazuri, canalele false folosesc siglele editorilor, numele colecțiilor sau linkurile prescurtate care dau o aparență de legitimitate. La prima vedere, pentru un utilizator nefamiliarizat cu mecanismele interne ale acestor instituții, prezentarea poate părea convingătoare, mai ales dacă canalul compilează știri, anunțuri și documente care combină materiale reale cu conținut de origine dubioasă.
Întregul acest cadru generează ceea ce studiul descrie ca fiind un ecosistem distorsionat în cadrul Telegramuluiunde prezența canalelor neoficiale o depășește cu mult pe cea a conturilor cu adevărat legate de editori. În practică, acest lucru se traduce prin riscuri serioase la adresa integrității academice și a proprietății intelectualeAceasta este o problemă atât în Spania, cât și în întreaga Europă, deoarece facilitează circulația operelor piratate și a ofertelor înșelătoare care afectează autorii, instituțiile și cititorii.
Ce face corect și unde greșește inteligența artificială?
În ceea ce privește performanța modelelor, studiul indică faptul că ambele ChatGPT și DeepSeek demonstrează o eficiență ridicată în detectarea canalelor în mod clar false.Când uzurparea de identitate este evidentă — absența totală a linkurilor oficiale, promisiuni neverosimile, conținut piratat în mod deschis — ambele sisteme tind să fie de acord în diagnosticul lor și să clasifice canalele drept ilegitime.
Totuși, cercetarea relevă și limitările structurale ale acestor modele în confirmarea autenticității canalelor realeCazurile care au generat cele mai multe dificultăți au fost cele în care canalul părea să fie legat de un editor, dar nu avea semnale puternice de verificare, cum ar fi bifa albastră de pe Telegram sau linkuri clare către pagini instituționale ușor de verificat.
Modelele nu s-au comportat identic. Conform studiului, DeepSeek a avut tendința de a acorda mai multă importanță coerenței contextuale a conținutuluiCu alte cuvinte, dacă tipul publicațiilor, tonul mesajelor și structura canalului erau în concordanță cu ceea ce s-ar aștepta de la o editură științifică consacrată. Această abordare s-a concentrat pe modul în care canalul comunica zilnic.
La rândul său, ChatGPT a prioritizat verificarea formală a afilierilor instituționaleÎn practică, aceasta a însemnat să se pună un accent mai mare pe prezența canalului pe site-urile web ale corporațiilor, existența mențiunilor verificate sau legătura sa cu alte conturi recunoscute. Atunci când aceste elemente erau neclare, modelul a dat dovadă de o mai mare precauție sau îndoială în ceea ce privește autenticitatea.
Studiul concluzionează că aceste abordări complementare sunt valoroase pentru efectuează filtrarea inițială în medii saturate de informațiidar subliniază faptul că Fiabilitatea IA ca detector autonom pentru utilizatorii fără instruire specifică este încă limitată.Autorii recomandă utilizarea acestor modele ca parte a sistemelor hibride în care analiza automată oferă suport, însă confirmarea finală revine profesioniștilor cu experiență în documentarea și editarea științifică.
Prejudecăți în surse și hegemonia conținutului în limba engleză
Pe lângă măsurarea fraudei, ancheta s-a concentrat pe examinarea Ce surse consultă ChatGPT și DeepSeek atunci când își justifică răspunsurile?Una dintre cele mai izbitoare constatări a fost prezența dominantă a Referințe occidentale versus alte zone geograficechiar și în cazul DeepSeek, despre care s-ar putea presupune că este mai aproape de sursele asiatice.
Acest dezechilibru reflectă hegemonia conținutului în limba engleză pe webmai ales când vine vorba de informații științifice și academice. Deoarece sunt antrenate în principal pe date redactate în mare parte în limbajul respectiv, modelele tind să reproducă acea distribuție în căutările și argumentele lor, ceea ce generează o prejudecată structurală atunci când trebuie să evalueze surse din alte contexte lingvistice.
În practică, această prejudecată poate complica evaluarea canalelor legate de editori non-occidentaliale căror site-uri web, sisteme de verificare sau stiluri de comunicare s-ar putea să nu se alinieze bine cu tiparele predominante din lumea anglo-saxonă. Prin urmare, unele canale legitime pot fi învăluite în mai multă incertitudine sau suspiciune decât omologii lor occidentali.
Autorii lucrării susțin că acest aspect ar trebui luat în considerare atunci când proiectarea de instrumente de monitorizare globală bazate pe inteligență artificialăAcest lucru este valabil mai ales în Europa, unde coexistă instituții științifice din medii foarte diferite. Dacă aceste prejudecăți nu sunt corectate, există riscul consolidării inegalităților în ceea ce privește vizibilitatea și recunoașterea între editori, în funcție de țara sau limba lor de origine.
Ca direcție viitoare, studiul propune antrenează modele cu corpusuri mai echilibrate și mai diverseprecum și ajustarea criteriilor de evaluare pentru a reflecta mai bine diversitatea sistemului academic internațional. În caz contrar, însăși tehnologia concepută pentru a combate dezinformarea ar putea ajunge să reproducă tipare neintenționate de excluziune.
Un mediu cu risc ridicat pentru integritatea academică
Având în vedere toate aceste elemente, cercetătorii descriu universul canalelor Telegram legate de edituri științifice ca fiind un mediu cu risc ridicat pentru integritatea academică și proprietatea intelectualăMarea majoritate a canalelor false, comparativ cu numărul mic de conturi autentice, face dificilă pentru utilizatorul obișnuit să distingă dintr-o privire care surse sunt fiabile.
Printre riscurile identificate, se remarcă următoarele: diseminarea necontrolată a materialelor științificeAcest lucru nu numai că încalcă drepturile de autor, dar poate facilita și circulația versiunilor mai vechi, incomplete sau modificate ale articolelor și cărților. Acest tip de circulație nereglementată poate afecta modul în care studenții, profesorii și cercetătorii din Europa consultă și citează literatura științifică.
Un alt pericol relevant este acela al servicii de publicare frauduloaseAceste practici erodează încrederea în sistemul de publicare academică. Cei care cad pradă acestor canale pot plăti pentru procese inexistente, își pot vedea munca asociată cu practici lipsite de etică sau își pot compromite reputația profesională - un aspect deosebit de delicat la începutul unei cariere de cercetare.
Studiul vorbește despre o adevărată paradox instituționalDeși Telegram reprezintă un instrument cu un mare potențial pentru o diseminare științifică riguroasă, implicarea directă limitată a multor editori în platformă Aceasta lasă o lacună pe care imitatorii o exploatează cu puțină rezistență. În absența unor canale oficiale clar identificabile, utilizatorii ajung să recurgă la alternative care, în multe cazuri, nu sunt ceea ce par.
În contextul european, unde lupta împotriva dezinformare și farse științifice Deși aceasta a devenit o prioritate politică și de reglementare, situația descrisă pe Telegram prezintă o provocare suplimentară. Ușurința cu care pot fi create și multiplicate canalele înseamnă că problema se poate răspândi rapid, forțând instituțiile, bibliotecile și organismele de reglementare să dezvolte noi strategii de monitorizare și răspuns.
Către sisteme hibride de supraveghere și noi linii de cercetare
Având în vedere acest scenariu, cercetătorii de la Universitatea din Granada pledează pentru dezvoltarea sisteme hibride de detectare și monitorizare care combină capacitățile inteligenței artificiale cu evaluarea umană de către experți. Ideea este de a valorifica scara de analiză a modelelor lingvistice să urmărească volume mari de canale și mesaje, dar lăsând decizia finală în mâinile unor echipe de experți.
În această schemă, IA ar acționa ca instrumentul inițial de cartografiereAceasta implică identificarea de noi canale suspecte, tipare recurente de fraudă sau rețele de conturi care reutilizează numele și siglele unor edituri de renume. De acolo, documentariștii, bibliotecarii și personalul editurilor ar putea analiza cazurile identificate și lua măsuri, fie prin raportarea lor către platformă, avertizarea utilizatorilor, fie prin consolidarea propriei prezențe oficiale.
Studiul indică, de asemenea, posibilitatea ca extinde această metodologie la alte domenii ale dezinformării Aceste probleme sunt predominante pe Telegram, cum ar fi răspândirea știrilor științifice false, teoriile conspirației despre sănătate și conținutul politic manipulat. Această abordare se aliniază cu prioritățile multor instituții europene interesate să aibă instrumente proactive pentru a detecta și opri campaniile de dezinformare înainte ca acestea să devină virale.
Integrarea progresivă a funcțiilor avansate de analiză textuală și contextuală în modelele lingvistice deschide calea către sisteme de monitorizare proactivă capabile să emită avertizări timpurii cu privire la apariția unor noi rețele de canale false. Aceste alerte ar putea fi utile pentru edituri, universități și organisme publice care doresc să protejeze comunicarea științifică și să mențină standarde de calitate în informațiile care ajung la public.
În același timp, autorii subliniază necesitatea Editorii științifici ar trebui să își consolideze prezența verificată pe Telegram și pe alte platforme similare. Identificarea clară a canalelor oficiale, a unor politici de comunicare transparente și a unor mesaje consecvente ar ajuta utilizatorii să distingă mai ușor sursele legitime și ar reduce posibilitatea de a imita identitatea.
Munca desfășurată la Universitatea din Granada arată clar că faptul că Peste 78% dintre canalele editorilor științifici de pe Telegram sunt false. Aceasta nu este o problemă marginală, ci un fenomen structural care afectează modul în care informațiile academice circulă online. Abordarea acesteia necesită combinarea tehnologiei, a judecății experților și a unei implicări instituționale sporite pentru a recâștiga teren într-un canal de comunicare unde, deocamdată, actorii fraudulosi operează cu prea multă ușurință.