In einem aktuellen Blogbeitrag auf Google Cloud betont Phil Venables, VP, TI Security & CISO bei Google Cloud, die Bedeutung der gemeinsamen Nutzung von Schwachstellenforschung durch KI-Anbieter. Er argumentiert, dass dies entscheidend für den Aufbau von Vertrauen in die KI-Technologie sei, insbesondere angesichts ihrer rasanten Entwicklung. Google nehme die Cybersicherheitsforschung sehr ernst und habe in die Erforschung von KI-Risiken und die Entwicklung besserer Cyberabwehr investiert. Das Google Cloud Vulnerability Research Team habe bereits unbekannte Schwachstellen in Vertex AI entdeckt und behoben. Venables fordert KI-Entwickler auf, die gemeinsame Nutzung von KI-Sicherheitsforschung zu normalisieren. Google Cloud wolle die Bemühungen zur Verbesserung der Sicherheitsstandards weltweit anführen, indem Transparenz gefördert, Erkenntnisse ausgetauscht und offene Diskussionen über KI-Schwachstellen geführt werden. Nur so könne man gemeinsam auf eine Zukunft hinarbeiten, in der generative KI standardmäßig sicher ist. Das Verschweigen von Schwachstellen erhöhe das Risiko, dass ähnliche Schwachstellen auf anderen Plattformen bestehen bleiben. Die Branche sollte das Auffinden und Beheben von Schwachstellen erleichtern, nicht erschweren. Venables appelliert an die gesamte Branche, die Messlatte für KI-Sicherheit höher zu legen und gemeinsam auf eine Zukunft hinzuarbeiten, in der KI-Modelle standardmäßig sicher sind.