PANews는 11월 22일 트위터 사용자 @r_cky0가 ChatGPT를 사용하여 블록체인 자동 거래 로봇을 개발하기 위한 코드를 생성했을 때 GPT가 추천한 코드에 백도어가 숨겨져 있었고 이로 인해 개인 키가 피싱 웹사이트로 전송되어 손실은 약 2,500달러입니다. 나중에 SlowMist 창립자인 Cosine @evilcos는 AI를 사용하여 코드를 생성하고 "해킹"되는 사례가 실제로 있음을 확인했습니다.

전문가들은 이런 유형의 공격이 피싱 게시물이나 안전하지 않은 콘텐츠로부터 AI가 학습한 악성 패턴에서 비롯될 수 있으며, 현재 AI 모델로는 코드에 백도어가 있는지 구별하기 어렵다고 지적했다. 업계에서는 사용자에게 더욱 주의를 기울이고 AI 생성 코드를 맹목적으로 신뢰하는 것을 피할 것을 요구하고 있으며, 미래의 AI 플랫폼은 잠재적인 보안 위험을 식별하고 경고하기 위해 콘텐츠 검토 메커니즘을 강화할 것을 권장합니다.