By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
Argument-MKArgument-MK
  • Balllina
  • Maqedoni
  • Shqipëri
  • Ekonomi
  • Bota
  • Analiza
  • Kronika
  • Showbizz
  • Sport
  • + Më tepër
Reading: Anthropic: Inteligjenca jonë artificiale po përdoret për krim kibernetik
Share
Notification Show More
Font ResizerAa
Font ResizerAa
Argument-MKArgument-MK
  • Editorial
  • Analiza
  • Rekomanduar
  • Balllina
  • Maqedoni
  • Shqipëri
  • Ekonomi
  • Bota
  • Analiza
  • Kronika
  • Showbizz
  • Sport
  • + Më tepër
Have an existing account? Sign In
Follow US
  • Advertise
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.
Argument-MK > Blog > Teknologji > Anthropic: Inteligjenca jonë artificiale po përdoret për krim kibernetik
Teknologji

Anthropic: Inteligjenca jonë artificiale po përdoret për krim kibernetik

admin
Last updated: 29/08/2025 10:34
By admin 2 Min Read
Share
SHARE

Një raport i kompanisë Anthropic zbulon një evolucion ogurzi të krimit kibernetik.

Kompania Anthropic, krijuesi i inteligjencës artificiale Claude, ka bërë të ditur se sistemet e saj janë keqpërdorur për të kryer sulme kibernetike në mbarë botën.

Në raport thuhet se bëhet fjalë për një praktikë të re të njohur si “vibe-hacking”, ku AI jo vetëm ndihmon, por edhe ekzekuton vetë fazat kyçe të sulmit – nga mbledhja e të dhënave deri te formulimi i kërkesave për shpërblim.

Sipas raportit, sulmuesit kanë përdorur Claude Code për të goditur të paktën 17 organizata brenda një muaji në sektorë të ndryshëm – nga institucione shëndetësore dhe shtetërore, te komunitete fetare dhe shërbime emergjente. Kërkesat për shpërblim kanë arritur deri në gjysmë milioni dollarë.

Përveç “vibe-hacking”-ut, janë zbuluar edhe keqpërdorime të tjera:

Mashtrime në punësim të lidhura me Korenë e Veriut, ku mjetet e AI janë përdorur për intervista të rreme dhe punësim në kompani të IT-së.

Gjenerimi i ransomware-it që është shitur në rrjet me çmime nga 400 deri në 1200 dollarë.

Mashtrime romantike me ndihmën e një boti AI në Telegram, që synonte viktima në SHBA, Japoni dhe Kore.

Anthropic thekson se ka reaguar ndaj çdo incidenti duke bllokuar llogaritë përkatëse, duke futur sisteme të reja për zbulimin e abuzimeve dhe duke njoftuar autoritetet përkatëse.

Megjithatë, kompania pranon se aktorët keqdashës kanë gjetur mënyra për të anashkaluar filtrat e sigurisë, gjë që ngre pyetjen se sa të sigurta dhe të pambrojtura ndaj keqpërdorimeve janë sistemet e AI. 

You Might Also Like

Shkencëtarët zviceranë testojnë robotin që mund të kërkojë jetë në Mars

iPhone i palosshëm më afër se kurrë – ja kur pritet lansimi

Zbulohen detajet e para për Honor 600 Pro

Muskujt artificialë të fuqizuar nga ajri mund t’i ndihmojnë robotët të ngrenë 100 herë peshën e tyre

Apple i jep fund Mac Pro, Mac Studio bëhet desktop-i kryesor profesional

Share This Article
Facebook Twitter Email Print
Previous Article Foshnja brohoret për babanë që u kthye nga një udhëtim pune
Next Article Xavi Simons përfundon testet mjekësore te klubi i Ligës Premier

Stay Connected

FacebookLike
TwitterFollow
YoutubeSubscribe
TelegramFollow
- Advertisement -
Ad imageAd image

Latest News

Merz: Nuk dua përçarje të NATO-s
Maqedoni TOP LAJM
Ministri Salla: Legjislacioni shqiptar për sigurinë ushqimore është i përafruar me rregulloret e BE-së
Shqipëri
Ballazhi: Vonohemi me masat për celularët, bota po vepron më shpejt
Maqedoni TOP LAJM
Vendi ka rezerva të mjaftueshme të naftës, çmimet ndiqen çdo ditë në bursën botërore
Ekonomi

Ndalohet ribotimi i përmbajtjes (lajmeve dhe të gjitha shkrimeve të tjera) pa lejen me shkrim të portalit “Argument”.

Quick Link

  • Editorial
  • Analiza
  • Rekomanduar

Sign Up for Our Newsletter

Subscribe to our newsletter to get our newest articles instantly!

© 2026. ANET.COM.MK - All Rights Reserved.
Welcome Back!

Sign in to your account

Lost your password?