Ki maakt het beroep van webcrimineel een stuk makkelijker

ChatGPTJe hoeft alleen aan een ki-systeem te vragen een ​​computerworm of -virus te maken, zo makkelijk wordt de bezigheid van een webboef. Webveiligheids-onderzoekers in de VS deden die proef en ze gebruikten de door het systeem gemaakt code om zooi (ook wel ‘spam’ genoemd) te versturen of om persoonsgegevens te stellen. Ze deden dit bij drie ki-systemen: ChatGPT 4.0, Gemini Pro en LlaVA. Lees verder

E-krakers gebruiken steeds vaker ki bij hun webaanvallen

ChatGPTVolgens Microsoft en OpenAI gebruiken e-kraakgroepen uit China, Rusland, Noord-Korea en Iran steeds vaker kunstmatige intelligentie bij hun webaanvallen. Het is niet waarschijnlijk dat e-krakers en inlichtingendiensten in andere landen daar geen gebruik van zullen maken, met de Amerikanen in de voorste gelederen (schat ik=as zo). Lees verder

Kletsbots zoals ChatGPT hebben ‘navolgers’ gekregen

Misleidend bericht gemaakt door WormGPT

Een misleidend bericht gemaakt door WormGPT (afb: blog slashnext.com)

Kletsbots als ChatGPT van OpenAI en Bard van Google zijn inmiddels wereldberoemd en sinds een paar maanden vrij te raadplegen. Dat is voor allerlei duistere figuren aanleiding geweest ‘navolgers’ te maken die zich voordoen als het echte werk, maar met minder edele bedoelingen zoals het ontvreemden van inlogcodes. Lees verder

Kletsbots als ChatGPT of Bard kunnen (on)behoorlijk lekken

ChatGPT

De grote taalmodules als ChatGPT zouden makkelijk te foppen zijn om ongepaste opdrachten uit te voeren

Het lijkt wel alsof tegenwoordig iedereen dikke maatjes is met kletsbots (wat formuler grote taalmodules geheten, een vorm van kunstmatige intelligentie) als ChatGPT of Bard (van Google). Die bots worden zo gestructureerde dan ze niet al te schabouwelijke taal uitslaan, onzin of andere kwalijke of misleidende taal, maar hoe zit het met de beveiliging van die systemen? Vrij belazerd, constateerden onderzoekers van, onder meer, de Carnegie Mellon.
Lees verder

E-krakers proberen kletsbot ChatGPT officieel te ‘betrappen’

Toen die kletsbot door maker OpenAI werd gepresenteerd probeerden veel e-krakers die bot al uit om die te testen op beveiligingsgaten of op onbehoorlijk gedrag (of eigenlijk taalgebruik). Nu hebben ook de makers, techbedrijven en zelfs het Witte Huis e-krakers aangespoord om de kletsbot ‘onder vuur’ te nemen om zo de grenzen en beperkingen van die technologie te vinden. Lees verder

Wordt ChatGPT aan banden gelegd?

ChatGPTIn Italië heeft OpenAI, maker en eigenaar van kletsbot ChatGPT, mot met de privacywaakhond. OpenAI zou niet hebben gezorgd voor een ‘filter’ voor jongeren en zou niet duidelijk geweest zijn over wat het bedrijf met de verzamelde persoonsgegevens doet. OpenAI moest daarmee stoppen en binnen twintig dagen de boel in orde maken. Ook in de rest van de Europese Unie hebben de privacybewakers OpenAI in het vizier. Inmiddels heeft ook Spanje de maker van de kletsbot in het vizier. Het lijkt er op dat ook de EU er zich mee gaat bemoeien. Lees verder

Ki van OpenAI ingezet door Microsoft voor webveiligheid

Security Copilot

Rapportage van Security Copilot van Microsoft (afb: Microsoft)


Kunstmatige intelligentie is de plek waar je moet zijn, ook met je digitale veiligheid. Ki wordt al gebruikt om verdachte activiteiten op het web op te sporen. De meeste zelflerende systemen hebben echter alleen ‘verstand’ van een deel van de bedreigingen zoals het ontdekken van kwalijke codes. Nu schijnt Microsoft samen met OpenAI en zijn kletsbot ChatGPT-4 Security Copilot in de strijd geworpen te hebben die het wat breder zou aanpakken. Lees verder