vor 15 Stunden - futurezone
KI-Systeme bremsen nicht wie vorgesehen, wenn sie bestimmte Anweisungen als visuellen Input bekommen. Bei einer „Prompt Injection“-Attacke auf ein LLM werden böswillige Anweisungen in einen unverdächtig...weiterlesen »