Sociology

HoundDog.ai hilft Entwicklern, das Aussickern persönlicher Informationen zu verhindern

HoundDog.ai, ein Startup, das Entwicklern hilft sicherzustellen, dass ihr Code keine persönlich identifizierbaren Informationen (PII) preisgibt, ist am Mittwoch aus der Stealth-Phase herausgekommen und kündigte eine Seed-Runde in Höhe von 3,1 Millionen US-Dollar an, angeführt von E14, Mozilla Ventures und ex/ante, zusätzlich zu einer Reihe von Angel-Investoren. Im Gegensatz zu anderen Scan-Tools betrachtet HoundDog tatsächlich den Code, den ein Entwickler schreibt, und verwendet sowohl traditionelle Mustererkennung als auch große Sprachmodelle (LLMs), um potenzielle Probleme zu finden.

HoundDog wurde von Amjad Afanah gegründet, der zuvor DCHQ mitbegründet hatte, das später von Gridstore (das dann seinen Namen in HyperGrid geändert hat) im Jahr 2016 übernommen wurde. Afanah war auch Mitbegründer von apisec.ai, das immer noch aktiv ist, und arbeitete bei dem selbstfahrenden Startup Cruise. Die Inspiration für HoundDog kam während seiner Zeit beim Datenschutz-Startup Cyral und Gesprächen mit Datenschutzteams dort, erzählte er mir.

Bildnachweis: HoundDog.ai

'Als ich bei Cyral war, hatten wir eine Menge Daten', sagte er. 'Was Cyral macht - wie viele andere im Bereich der Datensicherheit - ist sich auf Produktionssysteme zu konzentrieren. Sie helfen Ihnen dabei, Ihre strukturierten Daten und Datenbanken zu entdecken, zu klassifizieren und dann Zugriffskontrollen anzuwenden. Aber das überwältigende Feedback, das ich von Sicherheits- und Datenschutzteams gleichermaßen hörte, war: 'Sie wissen, es ist ein wenig zu reaktiv und hält nicht mit den Änderungen im Code-Speicher Schritt.'''

Daher verschiebt HoundDog diesen Prozess noch weiter nach links. Während es sich immer noch im kontinuierlichen Integrationsfluss befindet und noch nicht in der Entwicklungsumgebung (obwohl das in Zukunft geschehen könnte), geht es hier darum, potenzielle Datenlecks zu finden, bevor der Code zusammengeführt wird. Und das Wichtigste ist, dass HoundDog dies tut, indem es sich tatsächlich den Code ansieht, nicht den Datenfluss, den er erzeugt. 'Unsere Quelle der Wahrheit ist der Codespeicher', sagte Afanah.

Bildnachweis: HoundDog.ai

Dank dessen würde HoundDog beispielsweise eine Warnung aussprechen, wenn ein Entwicklungsteam anfängt, Sozialversicherungsnummern zu sammeln, bevor der Code jemals zusammengeführt wird; es würde auch das Sicherheitsteam alarmieren. Das könnte potenziell ein großes - und kostspieliges - Problem sein, schließlich.

Der Service unterstützt derzeit Code, der in Java, C#, JavaScript und TypeScript sowie SQL, GraphQL und OpenAPI/Swagger-Abfragen geschrieben wurde. Die Unterstützung für Python steht kurz bevor, sagt das Unternehmen.

Afanah merkte an, dass ein Tool wie dieses in dieser Ära des KI-generierten Codes besonders wichtig wird, etwas, das auch Replit-CEO (und HoundDog-Angel-Investor) Amjad Masad bestätigte.

'Da immer mehr Unternehmen auf KI-generierten Code zurückgreifen, um die Entwicklung zu beschleunigen, wird es immer wichtiger, Sicherheitsbest Practices zu integrieren und die Sicherheit des generierten Codes sicherzustellen', sagte Masad. 'HoundDog.ai ist führend bei der Sicherung von PII-Daten früh im Entwicklungszyklus, was es zu einem unverzichtbaren Bestandteil eines jeden KI-Codegenerierung-Arbeitsablaufs macht. Deshalb habe ich mich entschieden, in dieses Unternehmen zu investieren.'

Letztendlich verwendet auch HoundDog selbst KI. Derzeit verlässt es sich auf Modelle von OpenAI, jedoch ist es wichtig zu betonen, dass dies optional ist. Benutzer, die sich Sorgen machen, dass ihr Code ihre privaten Repositories verlässt, können auch wählen, sich nur auf den traditionelleren Code-Scanner des Unternehmens zu verlassen.

Ein wesentlicher Teil des Wertversprechens von HoundDog ist, dass es die Compliance-Kosten für Startups dank seiner automatisierten Berichterstellungsfähigkeiten senken kann. Der Service kann automatisch ein Verarbeitungsverzeichnis von Aktivitäten (RoPA) generieren. Dafür verwendet HoundDog generative KI, um diese Berichte zu erstellen und sendet diese Daten an OpenAI. Das Team betont, dass nur die Tokens, die der Service durch seinen regulären Scanner entdeckt hat, mit OpenAI geteilt werden und dass der tatsächliche Quellcode nicht geteilt wird.

Das Unternehmen bietet einen begrenzten kostenlosen Plan an, mit kostenpflichtigen Plänen ab 200 US-Dollar/Monat für das Scannen von bis zu zwei Repositories.

Related Articles

Back to top button Back to top button