Neo4j überschreitet Umsatzmarke von 200 Millionen US-Dollar

Datenbank-Pionier wächst mit einer Valuation von >2 Milliarden US-Dollar und dank hoher Nachfrage nach GenAI

Neo4j überschreitet Umsatzmarke von 200 Millionen US-Dollar

München – 19. November – Neo4j (https://neo4j.com/), Anbieter von Graphdatenbanken und Graph Analytics, hat die Marke von 200 Millionen US-Dollar an jährlich wiederkehrenden Umsätzen (Annual Recurring Revenue) überschritten und damit sein ARR der letzten drei Jahre verdoppelt. Das Unternehmen ist auf dem besten Weg, in den kommenden Quartalen einen positiven Cashflow zu erwirtschaften. Grund dafür ist seine Führungsposition im expandierenden Markt für Graphtechnologie, die Ergebnisse der generativen KI (GenAI) hinsichtlich Genauigkeit, Transparenz und Erklärbarkeit entscheidend verbessert.

Neo4j verzeichnete in diesem Jahr ein rasantes Wachstum, angetrieben durch Unternehmen, die Graphdatenbanken als unverzichtbare Infrastruktur für KI-Systeme erkannt haben, die wiederum große Mengen an vernetzten Daten nutzen. Neo4j dient als optimierte Datenbank für diese Anwendungen. Das Wachstum wurde zudem durch die Nachfrage nach dem Cloud-Angebot von Neo4j angetrieben, das in den letzten drei Jahren um das Fünffache stieg, sowie durch Partnerschaften mit führenden Cloud-Hyperscalern und anderen Anbietern im Ökosystem.

Im Bericht „Exploring the Top Use Cases for Graph Analytics“ (10. Mai 2024) prognostizierte Gartner®: „Bis 2025 werden Graphtechnologien bei 80% der Daten- und Analyse-Innovationen zum Einsatz kommen – im Vergleich zu 10% im Jahr 2021 – und eine schnelle Entscheidungsfindung im gesamten Unternehmen ermöglichen.“

Laut der Cupole Consulting Group (https://www.cupole.se/) ist Neo4j mit einem Marktanteil von 44% führend in der Kategorie der Graphdatenbank-Management-Systeme (DBMS). Cupole schätzt den gesamten adressierbaren Markt für die breitere DBMS-Kategorie auf 110 Milliarden US-Dollar im Jahr 2024, wobei Graph-DBMS angetrieben durch Wechsel zu Cloud und neue KI-Anwendungsfälle mit einer jährlichen Wachstumsrate (Compound Annual Growth Rate, CAGR) von 32,6%+ wachsen.

Neo4j wird von 84% aller Fortune-100-Unternehmen und 58% der Fortune-500-Unternehmen genutzt. Dazu zählen u. a. Daimler, Dun & Bradstreet, EY, IBM, Merck, NASA, UBS und Walmart.

GenAI-Nachfrage nach Graphdatenbanken und GraphRAG
Graphdatenbanken ermöglichen es Unternehmen, Daten auf eine Weise zu speichern und abzufragen, die Zusammenhänge zwischen realen Entitäten widerspiegelt. Daten werden in einem Knowledge Graphen verknüpft. Große Sprachmodelle (LLMs) können auf Fakten und reichhaltigem Kontext zurückgreifen. KI-Systeme erhalten schnellen und besseren Zugang auf relevante Daten, die für die Erzeugung qualitativ hochwertiger Ergebnisse entscheidend sind.

Neo4j ist darüber hinaus führend bei GraphRAG, einem Ansatz, der es LLMs ermöglicht, Daten aus externen Quellen abzurufen, das darin enthaltene Wissen zu nutzen und Halluzinationen zu verhindern. Gartner hat die Bedeutung von GraphRAG in seinem Bericht „Hype CycleTM For AI in Software Engineering“ (2024) erwähnt: „RAG-Techniken im Unternehmenskontext leiden unter Problemen in Bezug auf die Richtigkeit und Vollständigkeit der Antworten, die durch Einschränkungen bei der Genauigkeit der Abfrage, des kontextuellen Verständnisses und der Antwortkohärenz verursacht werden. KGs (Knowledge Graphen), eine etablierte Technologie, können die in den Dokumenten enthaltenen Daten und die mit den Dokumenten verbundenen Metadaten enthalten. Die Kombination ermöglicht es RAG-Anwendungen, Texte basierend auf der Ähnlichkeit mit der Frage, der kontextuellen Darstellung der Abfrage und des Korpus abzurufen und so die Antwortgenauigkeit zu verbessern.“

2024 Meilensteine von Neo4j
Mit Neo4j können Entwickler ihre Daten GenAI-fähig machen und Anwendungen schneller und einfacher erstellen. Die generierten Ergebnisse sind genau, transparent und für Laien erklärbar bzw. nachvollziehbar. 2023 integrierte Neo4j die native Vektorsuche als Teil seiner Kerndatenbankfunktionen für umfassendere GenAI-Einblicke. Im Jahr darauf brachte Neo4j seine Graph Data Science-Lösung in die Snowflake AI Data Cloud und erweiterte seine Allianz mit Deloitte. Darüber hinaus bietet Neo4j native Integrationen zu LLM-Angeboten aller großen Hyperscaler. Um die Adoption von Graphen und GenAI für Unternehmen zu beschleunigen, gestaltete das Unternehmen 2024 zudem sein Cloud-Portfolio um.

Durch diese Maßnahmen ist Neo4 in der Lage, seine Position als Marktführer in seiner Kategorie auszubauen und im Bereich von GenAI zu beschleunigen. Aufgrund des umfassenden Angebots, der Flexibilität bei der Bereitstellung, der Analytics-Fähigkeiten und des Community Supports ist das Unternehmen bevorzugter Graph-Partner aller großen Cloud-Service-Providern.

Neo4j wurde im Gartner® Magic Quadrant™ for Cloud Database Management Systems 2023 (https://neo4j.com/whitepapers/neo4j-gartner-magic-quadrant/)* neben 19 anderen anerkannten globalen DBMS-Anbietern als Visionär eingestuft. Darüber hinaus bezeichnete The Forrester Wave™: Vector Databases, Q3 2024 (https://www.forrester.com/report/the-forrester-wave-tm-vector-databases-q3-2024/RES181372) Neo4j in diesem Jahr als „Strong Performer“ unter 14 Top-Anbietern.

2025 Wachstum durch neue KI-Funktionen, Cloud-Expansion und Partnerschaften
Neo4j plant, neue GenAI-Funktionen zu seinem Kernangebot hinzuzufügen, den Leistungsumfang für die Mainstream-Cloud zu erweitern und Partnerschaften zu vertiefen, um sich weiter als Standard für Graph-Analyse und GraphRAG zu etablieren.

Das Unternehmen sicherte sich vor kurzem 50 Millionen US-Dollar Kapital von Noteus Partners (https://noteus.com/), einer auf Wachstumskapital spezialisierten europäischen Investmentgesellschaft. Neo4j ist gut kapitalisiert und benötigt das Kapital nicht, um sein Geschäft zu betreiben. Die Investition stärkt jedoch die Bilanz des Unternehmens im aktuellen makroökonomischen Klima, bestätigt die Bewertung des Unternehmens von 2 Milliarden US-Dollar und unterstreicht das Bekenntnis von Neo4j, mit Organisationen zusammenzuarbeiten, denen es vertraut und an die es glaubt.“

Die Veröffentlichung von Graph Query Language (GQL) durch ISO und IEC im Jahr 2024 wird die Wachstum-Entwicklung voraussichtlich weiter beschleunigen. Der internationale Standard für eine Graphabfragesprache unterstreicht die Reife und Allgegenwärtigkeit von Graphtechnologie. GQL ist die erste Abfragesprache für Datenbanken, die seit SQL im Jahr 1987 zertifiziert wurde. An der fünf Jahre dauernden Entwicklung durch die ISO war Neo4j von Anfang an beteiligt.

ZITATE / REFERENZEN

Sebastian Siemiatkowski, Mitgründer und CEO, Klarna
„Bei Klarna verändern wir die Art und Weise, wie wir mit unserem GenAI-Chatbot namens Kiki zusammenarbeiten. Kiki basiert auf einem Neo4j Knowledge Graphen. Die KI führt Informationen aus verschiedenen verteilten und isolierten Systemen zusammen, verbessert die Qualität dieser Informationen und ermöglicht damit Teams vielfältige Fragen zu stellen – angefangen beim Ressourcenbedarf über interne Prozesse bis hin zur Verbesserung der Teamarbeit. Das hat enorme Auswirkungen auf die Produktivität, die wir uns ohne Graphen und Neo4j nicht hätten vorstellen können.“

Patrick Pichette, Partner, Inovia Capital
„Neo4j ist ein beeindruckendes Beispiel für Innovationsführerschaft, Wachstum und marktbestimmender Reife. Da GenAI nun vom Experiment in die Praxis wechselt und sich Graphen zu einem grundlegenden Bestandteil für viele kritische LLM-Geschäftsanwendungen entwickeln, ist Neo4j ein klarer Marktführer in diesem Bereich. “

Carl Olofson, Vice President, IDC
„Neo4j hat der Kategorie der Graphdatenbanken den Weg bereitet und ist dort als Innovator weiterhin führend, da es Lösungen anbietet, die für Unternehmen beim Management komplexer vernetzter Daten immer wichtiger werden. Die Nachfrage nach KI und fortschrittlicher Analytik steigt. Damit gewinnt auch die Rolle von Graphtechnologie für aussagekräftige Einblicke und Entscheidungsfindung an Bedeutung.“

Emil Eifrem, Mitgründer und CEO, Neo4j
„Dieser Meilenstein ist ein Beweis für die wachsende Anerkennung der Graphtechnologie als Grundlage für den modernen Daten-Stack. Neo4j ermöglicht es Kunden, Daten in Wissen zu verwandeln, Einblicke zu gewinnen und Möglichkeiten zu erschließen, die zuvor nicht möglich waren. Wir stehen jetzt an der Spitze eines Wandels, was den Einsatz von GenAI für Unternehmen angeht. Neo4j ist hier in einer einmaligen Position, um dieser Innovationswelle den Weg zu bereiten.“

* Gartner, Magic Quadrant for Cloud Database Management Systems, Adam Ronthal, Rick Greenwald, Xingyu Gu, Ramke Ramakrishnan, Aaron Rosenbaum, Henry Cook, 18. Dezember 2023

Über Neo4j
Neo4j, der führende Anbieter von Graphdatenbanken und Graph Analytics, hilft Unternehmen, Muster und Beziehungen innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum. Neo4js umfassender Graph Stack bietet leistungsstarke Graph-Datenspeicherung mit nativer Vektorsuche, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Neo4j ist stolz auf seine dynamische Open-Source-Community mit mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten sowie Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs. Besuchen Sie www.neo4j.com.

GARTNER ist eine eingetragene Marke und Dienstleistungsmarke von Gartner, Inc. und/oder seinen Tochtergesellschaften in den USA und international und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten. Magic Quadrant ist eine eingetragene Marke von Gartner, Inc. und/oder seiner Tochtergesellschaften und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten.

Gartner unterstützt keine der in seinen Forschungspublikationen dargestellten Anbieter, Produkte oder Dienstleistungen und rät Technologieanwendern nicht, nur die Anbieter mit den höchsten Bewertungen oder anderen Bezeichnungen auszuwählen. Die Forschungspublikationen von Gartner geben die Meinung der Forschungsorganisation von Gartner wieder und sollten nicht als Tatsachenbehauptungen ausgelegt werden. Gartner lehnt jede ausdrückliche oder stillschweigende Gewährleistung in Bezug auf diese Studie ab, einschließlich jeglicher Gewährleistung der Marktgängigkeit oder Eignung für einen bestimmten Zweck.

©2024 Neo4j, Inc., Neo Technology®, Neo4j®, Cypher®, Neo4j Bloom™, Neo4j Graph Data Science Library™, Neo4j® Aura™, und Neo4j® AuraDB™ sind eingetragene Marken oder eine Marke von Neo4j, Inc. Alle anderen Marken sind Eigentum der jeweiligen Unternehmen.

Firmenkontakt
Neo4j
Neo4j Media Hotline
. .
. .
.
http://neo4j.com/pr

Pressekontakt
Lucy Turpin Communications
Sabine Listl / Kathrin Schirmer
Prinzregentenstr. 89
81675 München
+49 89 417761-16
http://lucyturpin.de

Extreme Networks und Intel kooperieren, um KI-basierte Produktinnovationen voranzutreiben

Neue Technologiepartnerschaft erweitert die Möglichkeiten von Extreme AI Expert
Deutlich verbesserte Wi-Fi-Konnektivität, Performanz und Sicherheit

Extreme Networks und Intel kooperieren, um KI-basierte Produktinnovationen voranzutreiben

FRANKFURT A.M./MORRISVILLE, N.C., 30. Juli 2024 – Extreme Networks (https://de.extremenetworks.com/), Inc. (Nasdaq: EXTR), gibt bekannt, dass das Unternehmen eine Innovationspartnerschaft mit dem Intel® Connectivity Analytics Program eingegangen ist, um die integrierten KI-Funktionen seiner Extreme AI Expert™ (https://www.extremenetworks.com/resources/blogs/introducing-extreme-labs-first-technology-preview-extreme-ai-expert?utm_campaign=25_PR_Intel-Alliance_0000_CORP_AAD_REF_LPG_WW_EN_PRE_AI-Expert-Blog&utm_medium=Referral&utm_source=PR-Intel-Alliance&utm_content=AI-Expert-Blog)-Lösung zu verbessern, die derzeit als technische Vorschau in den Extreme Labs™ (https://www.extremenetworks.com/solutions/extreme-labs?utm_campaign=25_PR_Intel-Alliance_0000_CORP_AAD_REF_LPG_WW_EN_PRE_Labs-LP&utm_medium=Referral&utm_source=PR-Intel-Alliance&utm_content=Labs-LP) erprobt wird. Die Kooperation zielt darauf ab, Kunden bei der Optimierung der Netzwerkleistung, der Erkennung von Sicherheitsbedrohungen, der Personalisierung von Endnutzererfahrungen und der Senkung von Betriebskosten zu unterstützen. Dazu werden Netzwerkdaten, individuelle Gerätedaten von PCs mithilfe des innovativen Intel® Connectivity Analytics (https://www.intel.com/content/www/us/en/now/ica-program.html) SDK und generative KI (GenAI) genutzt, um Netzwerke intelligenter, schneller und resilienter zu machen.

Die Zahl der Endgeräte nimmt in sämtlichen Netzwerkumgebungen stetig zu. Kunden benötigen daher einen besseren Einblick in die Geräteaktivitäten und eine einfachere Lösung für das Management der Geräte vom Rechenzentrum bis zum Netzwerkrand. Die Partnerschaft von Extreme mit Intel wird die Transparenz von Netzwerk- und Endgeräten erhöhen und die Entwicklung von GenAI-Tools vorantreiben, mit denen Kunden das Design, die Implementierung und das Management von Unternehmensnetzwerken sowie der Sicherheit optimieren können. Diese neuen Funktionen helfen dabei, die Netzwerkleistung zu optimieren, die Bandbreite dynamisch anzupassen, um kritische Geräte zu priorisieren und die Erkennung von Sicherheitsbedrohungen und die Problembehebung zu verbessern.

GenAI für niedrigere Betriebskosten und bessere Nutzererfahrungen
Extreme AI Expert, das auf der Extreme Connect 2024 als technische Vorschau vorgestellt wurde, kombiniert Informationen aus den Wissensdatenbanken von Extreme Networks mit Daten von Anwendungen und Geräten in Kundennetzwerken, um Einblicke und proaktive Empfehlungen für das Design, die Bereitstellung und das Management von Netzwerken zu geben. Die Partnerschaft mit Intel wird Daten von mit Intel verbundenen Geräten einbeziehen, um die Empfehlungen für Kunden weiter zu verbessern und den Wissensumfang von Extreme AI Expert zu ergänzen. Die Integration von Extreme AI Expert in die Lösungen von Extreme Networks wird voraussichtlich noch in diesem Jahr beginnen.

„Das Netzwerk ist der Dreh- und Angelpunkt für Arbeitsabläufe, Innovationen und Erfahrungen. Durch die Partnerschaft mit Extreme Networks sorgen wir gemeinsam dafür, dass Netzwerke intelligenter, schneller, sicherer und skalierbarer werden. Durch die Nutzung der vielfältigen KI-basierten Erkenntnisse aus Millionen von mit Intel verbundenen Geräten auf der ganzen Welt und die Kombination mit den umfangreichen Netzwerkdaten helfen wir Unternehmen, ihre Betriebskosten zu senken und ein erstklassiges Benutzererlebnis zu bieten.“
Eric McLaughlin, VP & GM Wireless Solutions bei Intel, Client Computing Group.

„Unser Ziel ist es, Netzwerke so weiterzuentwickeln, dass sie den Anwendern ein besseres Erlebnis ermöglichen. Die Partnerschaft mit Intel bietet unseren Kunden eine sichere und optimierte Möglichkeit, Transparenz über ihr Netzwerk und ihre Endgeräte auf einer einzigen Plattform zu erhalten. Durch die Ergänzung unserer Extreme AI Expert-Lösung mit Intel® Connectivity Analytics bieten wir umfassendere und intuitivere KI-basierte Einblicke und Automatisierungen. Das Ergebnis sind intelligentere und reaktionsfähigere Erfahrungen, die alle Bereiche – von der Netzwerkoptimierung bis hin zur schnellen Erkennung und Behebung von Sicherheitsbedrohungen – verbessern.“
Nabil Bukhari, Chief Technology & Product Officer und GM of Subscription Business bei Extreme Networks

Über Extreme Networks
Extreme Networks, Inc. (EXTR) ist ein führender Anbieter cloudbasierter Netzwerklösungen mit dem Fokus, Lösungen und Services bereitzustellen, die Geräte, Anwendungen und Menschen auf innovative Weise miteinander verbinden. Durch den Einsatz von Machine Learning, Künstlicher Intelligenz (KI), Analytik und der Automatisierung erweitern wir die Grenzen der Technologie. Weltweit vertrauen über 50.000 Kunden auf die cloudbasierten End-to-End Netzwerklösungen sowie die Services und den Support von Extreme Networks, um ihre digitalen Transformationsinitiativen zu beschleunigen und nie zuvor dagewesene Ergebnisse zu erreichen.

Weitere Informationen finden Sie unter: https://de.extremenetworks.com/
Folgen Sie Extreme auf X, Facebook, Instagram, YouTube, Xing und LinkedIn.

Extreme Networks, ExtremeCloud, ExtremeWireless und das Logo von Extreme Networks sind Marken oder eingetragene Marken von Extreme Networks, Inc. in den Vereinigten Staaten und anderen Ländern. Andere hier aufgeführte Marken sind Eigentum ihrer jeweiligen Inhaber.

Firmenkontakt
Extreme Networks
Blair Donald
– –
– –
(603) 952-5662

Extreme Networks: Cloud-basierte End-to-End Netzwerklösungen

Pressekontakt
Lucy Turpin Communications
Alisa Speer und Eva Hildebrandt
Prinzregentenstraße 89
81675 München
+49 89417761-29/-14

Home

Sicherer Einsatz von AI für AppSec- und Entwicklungs-Teams: Checkmarx stellt AI-Security-Lösungen vor

AI Security Champion, AI Security for GitHub Copilot und Echtzeit-In-IDE-Code-Scanning schützen AI generierten Code und stärken das Sicherheitsbewusstsein der Entwickler

FRANKFURT, 21. Mai 2024 – Mit der raschen Einführung generativer AI-Tools (GenAI) in die Anwendungsentwicklung gehen auch neue AI-bezogene Bedrohungen einher. Checkmarx (https://checkmarx.com/?utm_source=PR&utm_medium=referral&utm_campaign=AI_Adoption), der Marktführer im Bereich Cloud-native Enterprise Application Security, ebnet Entwicklungs- und AppSec-Teams den Weg für einen sicheren Einsatz von AI. Aufsetzend auf frühere Innovationen für einen zuverlässigen Schutz von ChatGPT-generiertem Code und für die AI-gestützte Behebung von Schwachstellen stellt das Unternehmen nun sein AI-Security-Portfolio vor: Die Lösungen AI Security for GitHub Copilot, AI Security Champion sowie Echtzeit-In-IDE-Code-Scanning ermöglichen es Entwicklern, AI-generierten Code zu validieren, Schwachstellen automatisch zu beheben und von Anfang an sicheren Code zu schreiben.

Die Lösungen schützen nicht nur AI-generierten Code vor potenziellen Bedrohungen, sondern verbessern auch die Genauigkeit und Geschwindigkeit, mit der Schwachstellen im Code erkannt und behoben werden können. Die neue Partnerschaft mit Prompt Security (https://www.prompt.security/) vertieft diesen sicherheitsorientierten, optimierten Ansatz zum Schutz vor dem Verlust von Code und geistigem Eigentum (Intellectual Property, IP).

Mit den neuen Tools und der Integrationspartnerschaft mit Prompt Security adressiert Checkmarx zwei Risikobereiche, die sich aus dem flächendeckenden Einsatz von GenAI durch Entwicklungs-Teams ergeben: die Absicherung des AI-generierten Outputs auf der einen und den Schutz der mit diesen Tools geteilten Daten und des geistigen Eigentums auf der anderen Seite.

„Sowohl Entwicklungs-Teams als auch Bedrohungsakteure greifen zunehmend auf GenAI zurück. CISOs und AppSec-Verantwortliche haben aber nur wenig Transparenz über den Umfang der Nutzung und die potenziellen Risiken“, so Michelle Abraham, Research Director, Security and Trust bei IDC. „Es besteht ein erheblicher Marktbedarf an Lösungen, die es Entwicklern ermöglichen, das transformative Potenzial von GenAI voll auszuschöpfen, und die den Security-Verantwortlichen gleichzeitig die für robuste AppSec nötige Risikotransparenz bieten.“

Die neuen AI-Lösungen innerhalb der Checkmarx One Plattform (https://checkmarx.com/product/application-security-platform/?utm_source=PR&utm_medium=referral&utm_campaign=AI_Adoption) eröffnen Entwicklern und AppSec-Teams zusätzliche Möglichkeiten bei der Erkennung und Behebung von Schwachstellen in Echtzeit:

– AI Security for GitHub Copilot scannt den von GitHub Copilot generierten Code im IDE, erkennt Schwachstellen und stellt sicher, dass AI-generierter Code Security Best Practices entspricht.
– AI Security Champion ermöglicht die automatische Behebung von SAST-Schwachstellen. Dabei schlägt AI Security Champion stets auch alternativen Code vor, der die von Checkmarx SAST erkannten Schwachstellen behebt – und verkürzt so die Response-Zeit.
– Echtzeit-In-IDE-Scanning bietet Entwicklern Echtzeit-Feedback, während sie Code in ihren IDEs schreiben. Die Lösung scannt den Code des Entwicklers, während dieser ihn schreibt, erkennt Schwachstellen und zeigt diese im IDE an. Unmittelbares Feedback stellt sicher, dass der Code des Entwicklers von Anfang an sicher ist – ohne die Produktivität zu beeinträchtigen.
– Checkmarx GPT erweitert die Erkennung von Open Source und bösartigen Paketen um die Möglichkeit, ChatGPT-generierten Quellcode zu scannen, und ist im GPTStore erhältlich (https://gptstore.ai/gpts/pVgPh0JGvM-checkai).

„Checkmarx geht mit seinen kontinuierlichen Investitionen und Innovationen im Bereich GenAI und AppSec mit gutem Beispiel voran“, so Kobi Tzruya, Chief Product Officer bei Checkmarx. „Um Unternehmensdaten und -anwendungen optimal zu schützen, haben wir es uns auf die Fahnen geschrieben, die Entwickler-UX mit AppSec-Features zu verbessern, die sich nahtlos in ihre Workflows einfügen. So können die Entwickler das Potenzial von GenAI ausschöpfen und gleichzeitig die damit einhergehenden Risiken minimieren. Die Partnerschaft mit Prompt Security unterstreicht unser Commitment, ein offenes Technologie-Ökosystems für innovative Unternehmen und deren Best-of-Breed-AI-Lösungen zu schaffen.“

Über die Partnerschaft mit Prompt Security

Prompt Security bietet eine Enterprise-AI-Security-Plattform für die sichere Nutzung und Integration von GenAI in Unternehmen. Das Portfolio für Mitarbeiter und Entwickler bietet Transparenz über Schatten-AI und verhindert Datenverlust. Wann immer ein Entwickler seinen Code über eine IDE oder einen Browser mit Kollaborationsplattformen wie Stack Overflow oder GenAI-Tools wie ChatGPT, Gemini und Copilot teilt, kann dieser potenziell kompromittiert werden.

„Wenn Unternehmen GenAI in ihre Entwicklungs-Stacks integrieren, nimmt die Komplexität potenzieller Sicherheitsrisiken mitunter erheblich zu. Prompt Security bietet Enterprise-Lösungen, die diesen Risiken Rechnung tragen und darauf abzielen, GenAI zu einem echten Innovations- und Wachstumstreiber zu machen. Durch unsere Partnerschaft mit Checkmarx können wir sensible Daten und geistiges Eigentum noch besser schützen – und unseren Kunden die Möglichkeit eröffnen, GenAI gefahrlos in ihrem SDLC einzusetzen“, so Itamar Golan, CEO und Mitbegründer von Prompt Security.

Die Browser- und IDE-Erweiterung von Prompt Security erkennt, wenn Code oder Secrets wie geistiges Eigentum oder Credentials mit einem GenAI-Tool oder einer Kollaborationsplattform geteilt werden. Secrets können automatisch unter Verschluss gehalten werden, während Code bewertet werden kann. Dank der neuen Integration kann Checkmarx feststellen, ob es sich um proprietären Code handelt und so verhindern, dass ein User Code versehentlich leakt. Handelt es sich um nicht proprietären Code, wird das Code-Sharing zugelassen.

Weiterführende Informationen zu Checkmarx One und AppSec-Lösungen für GenAI in der Entwicklung finden interessierte Leser hier (https://checkmarx.com/blog/just-launched-checkmarx-ai-security/?utm_source=PR&utm_medium=referral&utm_campaign=AI_Adoption).

Über Checkmarx
Checkmarx ist Marktführer im Bereich Application Security und ermöglicht es Unternehmen weltweit, ihre Anwendungsentwicklung vom Code bis zur Cloud abzusichern. Die einheitliche Checkmarx One Plattform und die Services des Unternehmens verbessern die Sicherheit, senken die Gesamtbetriebskosten und stärken gleichzeitig das Vertrauen zwischen AppSec, Entwicklern und CISOs. Checkmarx ist überzeugt, dass es nicht nur gilt, Risiken zu identifizieren, sondern diese auch über die gesamte Anwendungslandschaft und Software-Supply-Chain hinweg zu beheben – mit einem durchgängigen Prozess, der alle relevanten Stakeholder einbezieht. Das Unternehmen betreut mehr als 1.800 Kunden und 40 Prozent der Fortune 100, darunter Siemens, Airbus, SalesForce, Stellantis, Adidas, Wal-Mart und Sanofi. Folgen Sie Checkmarx auf LinkedIn, YouTube und Twitter/X.

Firmenkontakt
Checkmarx Germany GmbH
Cynthia Siemens Willman
Theodor-Stern-Kai 1
60596 Frankfurt am Main

Checkmarx – Industry-Leading Application Security Testing Solutions Provider

Pressekontakt
H zwo B Kommunikations GmbH
Michal Vitkovsky
Nürnberger Str. 17-19
91052 Erlangen
+49 9131 81281-25

Agentur

Neo4j stellt GraphRAG-Funktionen in Google Cloud vor

Native Integration der Graphdatenbank in die Google Cloud Platform beschleunigt Entwicklung und Deployment von GenAI-Anwendungen

Neo4j stellt GraphRAG-Funktionen in Google Cloud vor

GenAI-Referenzarchitektur mit Google Cloud, VertexAI, Gemini und Neo4j (Bildquelle: Neo4j)

München – 9. April 2024 – Neo4j (https://neo4j.com/), Anbieter von Graphdatenbanken und Graph Analytics, bietet ab sofort die native Integration seiner Graphdatenbank in Google Cloud an. Ziel ist es, die Entwicklung und Bereitstellung von GenAI-Anwendungen zu beschleunigen und bekannte Probleme (z. B. KI-Halluzinationen und steigende Komplexität) zu lösen. Dazu kommt mit GraphRAG eine Form von Retrieval Augmentation Generation (RAG) zum Einsatz.

RAG bezeichnet einen Ansatz, bei dem LLMs mit externen Daten ergänzt werden, um Antworten relevanter, aktueller, nachvollziehbarer und präziser zu machen. Handelt es sich bei dieser Datenquelle um einen Knowledge Graphen spricht man von GraphRAG. Knowledge Graphen erfassen Beziehungen zwischen Entitäten, verankern LLMs innerhalb von Fakten und liefern damit die für GenAI-Anwendungen notwendige Erklärbarkeit, Aktualität, Genauigkeit sowie Kontext für relevante Antworten. Nach Gartner® ist das Zusammenspiel zwischen der Performance großer Sprachmodelle (LLMs) und der „Robustheit“ von Knowledge Graphen entscheidend, um fehlertolerante KI-Anwendungen zu entwickeln*.

GraphRAG mit Neo4j und Google Cloud:
– Schnelles Erstellen von Knowledge Graphen: Entwickler können mit Google Cloud, dem KI-Modell Gemini, VertexAI, LangChain und Neo4j Knowledge Graphen aus unstrukturierten Daten wie PDFs, Webseiten und Dokumenten erstellen – entweder direkt oder geladen aus Google Cloud Storage Buckets.
– Aufnahme, Verarbeitung und Analyse von Echtzeitdaten: Entwicklern stehen Flex Templates in Dataflow zu Verfügung, um wiederholbare, sichere Datenpipelines aufzubauen und Daten über Google BigQuery, Google Cloud Storage und Neo4j einzulesen, zu verarbeiten und zu analysieren. Darüber hinaus werden die Knowledge Graphen so mit Echtzeitdaten versorgt, um Relevanz, Aktualität und Reaktionsfähigkeit von GenAI-Anwendungen sicherzustellen.
– Graphbasierte GenAI-Anwendungen auf Google Cloud: Dank Gemini for Google Workspace und Reasoning Engine von Vertex AI lassen sich GenAI-Anwendungen und APIs auf Google Cloud Run bereitstellen, überwachen und skalieren. Das Gemini KI-Modell wurde auf den Daten von Neo4j trainiert, um beliebige Sprachcode-Schnipsel automatisch in die Abfragesprache Cypher von Neo4j zu verwandeln. Diese Integration ermöglicht eine schnelle, einfache und kollaborative Anwendungs-Entwicklung. Entwickler können Cypher zudem in jeder integrierten Entwicklungsumgebung (IDE) verwenden, die vom Gemini KI-Modell unterstützt wird, was eine effiziente Abfrage und Visualisierung von Graphdaten sicherstellt. Neo4js Vektorsuche, GraphRAG und Conversational-Memory-Funktionen sind nahtlos über LangChain und Neo4j AuraDB (https://neo4j.com/cloud/platform/aura-graph-database/)auf Google Cloud integriert.

Alle neuen Funktionen sind ab sofort in Neo4j für Google Cloud verfügbar. Unternehmen, die strenge Anforderungen hinsichtlich Datenresidenz, Sicherheit und Compliance erfüllen müssen, profitieren von der Google Distribution Cloud (GDC) Hosted. GDC ist eine Air-Gapped Private Cloud-Infrastruktur und Edge-Umgebung, die speziell für Organisationen des öffentlichen Sektors und in regulierten Branchen entwickelt wurde. Neo4j ist der bevorzugte Partner für GDC, um Graphdatenbank- und Analysefunktionen bereitzustellen.

„Die Integration von Neo4j in Google Gloud und die neuen GraphRAG-Funktionen helfen Unternehmen, GenAI schneller in der Praxis einzusetzen und Anwendungen zu entwickeln, die einen echten, produktiven Mehrwert liefern“, erklärt Sudhir Hasbe, Chief Product Officer von Neo4j. „Für uns ist die Integration und die Partnerschaft mit Google Cloud ein weiterer wichtiger Schritt, um die Stärken von Graphtechnologie, GenAI und Cloud-Computing zu bündeln und die Innovationen rund um GenAI weiter voranzutreiben.“

„Generative AI erhöht den Wert, den Kunden aus kritischen Geschäftsdaten ziehen, erheblich“, erklärt Ritika Suri, Director of Technology Partnerships bei Google Cloud. „Durch die Nutzung des Gemini KI-Modells in Google Cloud und Vertex AI kann Neo4j die Geschwindigkeit und Genauigkeit in der Entwicklung von generativer KI steigern.“

Google Cloud und Neo4j verbindet seit 2019 eine strategische Partnerschaft. Erst im April wurde Neo4j zum zweiten Mal in Folge als Google Cloud Technology Partner of the Year in der Kategorie Data Management ausgezeichnet. Neo4j war 2023 zudem der einzige native Graphanbieter, der native Produktintegrationen mit GenAI-Funktionen in Google Cloud Vertex AI einführte. Im vergangenen Jahr integrierte das Unternehmen zudem native Vektorfunktionen als Langzeitspeicher für LLMs in seine Graphdatenbank.

*Gartner “ AI Design Patterns for Knowledge Graphs and Generative AI (https://www.gartner.com/document/4436199?ref=solrAll&refval=403865348&)“ (November 2023)

Weitere Informationen finden Sie im aktuellen Blog (http://www.neo4j.com/blog/graphrag-genai-googlecloud/).

Über Neo4j
Neo4j, der führende Anbieter von Graphdatenbanken und Graph Analytics, hilft Unternehmen, Beziehungen und Muster innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum. Neo4js umfassender Graph Stack bietet leistungsstarke Graph-Datenspeicherung mit nativer Vektorsuche, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Neo4j ist stolz auf seine dynamische Open-Source-Community mit mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten sowie Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs. Besuchen Sie www.neo4j.com.

GARTNER ist eine eingetragene Marke und Dienstleistungsmarke von Gartner, Inc. und/oder seinen Tochtergesellschaften in den USA und international und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten.

©2024 Neo4j, Inc., Neo Technology®, Neo4j®, Cypher®, Neo4j Bloom™, Neo4j Graph Data Science Library™, Neo4j® Aura™, und Neo4j® AuraDB™ sind eingetragene Marken oder eine Marke von Neo4j, Inc. Alle anderen Marken sind Eigentum der jeweiligen Unternehmen.

Firmenkontakt
Neo4j
Neo4j Media Hotline
. .
. .
.
http://neo4j.com/pr

Pressekontakt
Lucy Turpin Communications
Sabine Listl / Kathrin Schirmer
Prinzregentenstr. 89
81675 München
+49 89 417761-16
http://lucyturpin.de

KI und Graphtechnologie: Die Trends 2024 – ein Versuch

KI und Graphtechnologie: Die Trends 2024 - ein Versuch

Graphtechnologie & KI (Bildquelle: vs148/Shutterstock.com)

München, 11.12.2023 – Die Entwicklung in und rund um KI läuft momentan so schnell ab, dass es schwierig ist, überhaupt Prognosen abzugeben. Statt der Trends für 2024 stellt sich eher die Frage: Woher kommt dieses irre Tempo? Die Experten beim Graphdatenbanken-Anbieter Neo4j (http://www.neo4j.com/)werfen dazu einen Blick auf aktuelle Treiber, die spürbaren Folgen auf das KI-Ecosystem und die noch zu lösenden KI-Hürden.

#1: Investitionsboom bleibt ungebrochen
Die KI-Branche boomt. Unternehmen stecken zwar nicht erst seit diesem Jahr viel Geld in die Technologie. Die Zahlen verblassen jedoch im Vergleich zu den Beträgen, die Tech-Konzerne in den letzten 12 Monaten in Startups und Lösungen investierten. Selbst die großen Analystenhäuser kommen mit ihren Prognosen kaum noch hinterher. Gartner (https://www.gartner.com/en/newsroom/press-releases/2023-08-01-gartner-identifies-top-trends-shaping-future-of-data-science-and-machine-learning)zum Beispiel ging noch im Sommer von mehr als 10 Mrd. $ Investitionen in KI-Startups bis 2026 aus. Bereits im Herbst kann diese Schätzung angesichts der massiven Investitionen – zum Beispiel von beispielsweise Amazon und Google in das KI-Startup Anthropic (ca. 4,5 Mrd. $) – bereits als veraltet gelten.

#2: Begrenzte Kapazitäten heizen KI-Wettrennen an
Die Investitionen befeuern nicht nur die KI-Forschung, sondern ziehen das gesamte KI-Ecosystem mit sich – von der Cloud über Datenbanksysteme bis hin zur Halbleiterindustrie. Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten. Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren zwar deutlich nach oben. Doch die Anlagen von Chip-Herstellern wie Nvidia sind über Jahre ausgebucht und die Preise steigen exorbitant. Im Kampf um realisierbare KI-Spitzenleistung werden Software Tech-Riesen wie Microsoft in den nächsten Jahren deshalb verstärkt selbst im Halbleitergeschäft aktiv.

#3: Schneeballeffekt bei Developer- und IT-Tools
Der KI-Hype wird nicht nur von außen angeheizt. KI treibt als inhärente Automatisierungs-Technologie ihre eigene Entwicklung selbst voran. KI-Modelle helfen, bessere KI-Modelle zu erstellen. Developer delegieren zeitraubende Aufgaben an die Systeme, lassen automatisch Code generieren und verkürzen damit Innovationszyklen massiv. Nach Schätzungen von McKinsey (https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/unleashing-developer-productivity-with-generative-ai) können Entwickler mit Unterstützung von GenAI ihre Leistung bei der Code-Generierung um bis zu 45% steigern. Smarte Management-Tools in der IT wiederum optimieren die Rechenleistung in der Cloud und im eigenen Rechenzentrum für den KI-Betrieb im Enterprise-Umfeld. Damit potenziert sich die KI-Technologie momentan ungebremst weiter.

#4: KI für alle: Data Democratization
Neben der Automatisierung und Optimierung verändert KI zudem die Nutzung von Daten – insbesondere in der Kombination von LLMs und Natural-Language User Interface (LUI, NLUI). Anwender gelangen via Chatbots und Search Generative Experience (SGE) so einfach wie noch nie an Informationen. Was früher Data Scientists vorbehalten war, steht heute dank API theoretisch jedem Mitarbeitenden im Unternehmen zur Verfügung. Abteilungsspezifische Anwendungen werden zukünftig einer zentralen, sprachmächtigen KI-Lösung Platz machen, die auf kuratierten Unternehmens-Daten basiert, relevante Antworten in beliebigen Formaten (Schrift, Bild oder Sprache) ausgibt und dabei Zugriffsrechte und Datenschutzbestimmungen berücksichtigt.

#5 Von Graphen und Vektoren: Datenbanken
Die Datendemokratisierung setzt spezielle Ansätze zum Speichern, Vernetzen, Indizieren und Abfragen von Daten voraus. Vektordatenbanken und ihre Fähigkeit, hochdimensionale Daten effizient zu speichern, gehörten dabei zu den meistdiskutierten KI-Themen in 2023. Die Vektordatenbanken stehen laut Analysten zwar noch am Beginn ihres Hype-Zyklus. Die Vektorsuche ist mittlerweile jedoch auch in einer Vielzahl an Datenbanken als Standard-Feature integriert.

Als KI-Enabler weiter etabliert haben sich zudem Graphdatenbanken. Knowledge Graphen verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Das schafft ein optimales Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen.

#6: Responsible AI im Alleingang
Die KI-Blackbox aufzubrechen, gewinnt angesichts der – teilweise amüsanten, teilweise verstörenden – KI-Fails an Dringlichkeit. KI-Halluzinationen und Indirect Prompt Injections sind nur einige Beispiele, wie KI-Lösungen manipulieren und sich manipulieren lassen. Mit zunehmender Implementierung stellt sich zudem die Frage nach der Verantwortlichkeit: Wer ist für die KI-generierten Entscheidungen, Prognosen und Inhalte letztendlich verantwortlich? Gesetzliche Auflagen (z. B. EU Artificial Intelligence Act) werden frühestens in zwei bis drei Jahren greifen. Unternehmen können das nicht aussitzen und werden verstärkt selbst Sicherheitsmechanismen und Leitplanken integrieren.

#7: Mehr als nur Chatbot
KI gilt als Querschnittstechnologie: Sie besitzt hohe technologische Dynamik und ist branchenübergreifend einsetzbar. Damit geht ihr Potential weit über das eines LLM-KI-Agenten wie ChatGPT hinaus. Chatbots waren im letzten Jahr zwar das Aushängeschild von KI. Laufende KI-Projekte sind jedoch deutlich vielseitiger – von Prognosen über das Weltklima (GraphCast) bis hin zur Aufdeckung von Proteinstrukturen im menschlichen Körper (AlphaFold). Selbst in deutschen Unternehmen kommt KI schneller und umfassender zum Einsatz als vielfach erwartet. So arbeiten nach einer Cisco-Umfrage (https://news-blogs.cisco.com/emea/de/2023/10/19/cisco-umfrage-42-prozent-der-deutschen-firmen-nutzen-bereits-ki/) bereits 42% mit KI. Und 8% haben sogar bereits eigene KI-Lösungen entwickelt.

#8 Blick auf die Hype-Kurve 2024
Dass KI angesichts dieser Entwicklungen längst noch nicht an Geschwindigkeit verliert, zeigt sich im Gartner Hype Cycle for Emerging Technologies 2023. GenAI erhielt hier den prominentesten Platz auf dem Gipfel und steigt damit nach Ansicht der Analysten wohl bald in das „Tal der Ernüchterung“ hinab. Dahinter reihen sich jedoch schon neue KI-Ansätze und -Lösungen ein, um den nächsten Hype in den kommenden Jahren loszutreten (z. B. AI Augmented). So gesehen ist Hype auch nichts Negatives, sondern eine zentrale Phase, um die vielfältigen Dimensionen einer Technologie auszuloten.

Mehr über KI-Hype, graphbasierte LLMs und Graphdatenbanken erfahren Sie im kostenlosen Neo4j Webinar „Neo4j: A Fireside Chat: Graph Innovations in GenAI, LLMs, and What“s Ahead“ (https://go.neo4j.com/WBR-231219-Year-in-Review—EMEA_Registration2.html?_ga=2.225074137.291135875.1701688872-2134286728.1693988677&_gac=1.19695306.1701176680.CjwKCAiAvJarBhA1EiwAGgZl0KY4UP-YMJzbd52W_157xWsfUUr_cH_nReXaO2_B0zS0E7msL6GexxoCpcsQAvD_BwE&_gl=1*1cuo3by*_ga*MjEzNDI4NjcyOC4xNjkzOTg4Njc3*_ga_DL38Q8KGQC*MTcwMTc2OTMzMy42MDguMS4xNzAxNzcwNDUwLjAuMC4w) am 19. Dezember 2023, 11 Uhr.

Über Neo4j
Neo4j, der führende Anbieter von Graphdatenbanken und Graph Analytics, hilft Unternehmen, Beziehungen und Muster innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum. Neo4js umfassender Graph Stack bietet leistungsstarke native Graph-Datenspeicherung, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Die Neo4j-Community mit ihren Open-Source Enthusiasten besteht aus mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten aus Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs. Besuchen Sie https://neo4j.com.

©2023 Neo4j, Inc., Neo Technology®, Neo4j®, Cypher®, Neo4j Bloom™, Neo4j Graph Data Science Library™, Neo4j® Aura™, und Neo4j® AuraDB™ sind eingetragene Marken oder eine Marke von Neo4j, Inc. Alle anderen Marken sind Eigentum der jeweiligen Unternehmen.

Firmenkontakt
Neo4j
Neo4j Media Hotline
. .
. .
.
http://neo4j.com/pr

Pressekontakt
Lucy Turpin Communications
Sabine Listl / Kathrin Schirmer
Prinzregentenstr. 89
81675 München
+49 89 417761-16
http://lucyturpin.de

Neo4j geht Strategic Collaboration Agreement mit AWS ein

Die Vereinbarung umfasst die Integration der Graphdatenbank in Amazon Bedrock für genauere und erklärbare GenAI-Ergebnisse ohne KI-Halluzinationen

Neo4j geht Strategic Collaboration Agreement mit AWS ein

München – 21. November 2023 – Neo4j (https://neo4j.com/), Anbieter von Graphdatenbanken und Graph Analytics, hat ein mehrjähriges Strategic Collaboration Agreement (SCA) mit Amazon Web Services (AWS) geschlossen. Die Vereinbarung soll den Bedarf nach Langzeitspeichern von Entwicklern lösen, die spezifische Unternehmensdaten und Domänen für Large Language Models (LLMs) validieren wollen (Grounding).

Neben Neo4j Aura Enterprise ist ab sofort auch Neo4j Aura Professional (https://aws.amazon.com/marketplace/pp/prodview-2t3o7mnw5ypee) als vollständig verwaltete Cloud-Graphdatenbank im AWS Marketplace verfügbar und ermöglicht einen einfachen und schnellen Einstieg in die generative KI. Im Zuge der neuen Vereinbarung veröffentlicht Neo4j eine native Integration mit Amazon Bedrock, ein vollständig verwalteter Service, der über eine zentrale API eine breite Auswahl an Basismodellen (Foundation Models, FMs) von führenden KI-Unternehmen und Funktionen für die sichere und flexible Entwicklung von GenAI-Anwendungen bereitstellt.

Anwender der Graphdatenbanken erhalten mit der Integration in Amazon Bedrock neue technische Optionen:

– Reduzieren von KI-Halluzinationen: In Kombination mit Langchain und Amazon Bedrock können Neo4j-Anwender Retrieval Augmented Generation (RAG) nutzen, um virtuelle Assistenten zu erstellen. Da die Agenten dabei auf internen, kuratierten Unternehmensdaten basieren, lassen sich Falschaussagen (KI-Halluzinationen) minimieren und Antworten eindeutig auf ihre Quelle zurückverfolgen.

– Basismodelle für personalisierte Inhalte: Die Integration von kontextreichen Knowledge Graphen in Amazon Bedrock erlaubt den Aufbau einer umfangreichen Sammlung von FMs. Statt KI- und ML-Modelle von Grund auf neu zu entwickeln, dienen die Basismodelle als Ausgangspunkt, um Anwendungen schneller und kostengünstiger zu entwickeln. Endanwender erhalten personalisierte, auf sie zugeschnittene Inhalte/Texte sowie Zusammenfassungen.

– Holistische Antworten in der Echtzeit-Suche: Entwickler können Amazon Bedrock nutzen, um Vektoreinbettungen aus unstrukturierten Daten (Text, Bilder und Video) zu generieren und Knowledge Graphen mit den neuen Vektorsuche und -speicher Funktionen von Neo4j anzureichern. Im Katalog eines Einzelhändlers können Kunden zum Beispiel entweder explizit (über ID, Kategorie etc.) oder implizit (über Beschreibung, Foto etc.) nach Produkten suchen.

– Schnellstarter für Knowledge Graphen: Die neuen generativen KI-Funktionen von Amazon Bedrock helfen, unstrukturierte Daten so zu verarbeiten, dass sie strukturiert vorliegen und in einen Knowledge Graphen übertragen werden können. Dort erlaubt der semantische Kontext einen tiefen Einblick sowie Entscheidungen in Echtzeit.

„Neo4j ist seit 2013 AWS-Partner. Die neue Vereinbarung mit AWS vertieft diese Beziehung zwischen Graphtechnologie und Cloud Computing und macht uns zur Daten-Plattform der neuen KI-Ära“, erklärt Sudhir Hasbe, Chief Product Officer bei Neo4j. „Unser gemeinsames Ziel ist es, Unternehmen bei der Implementierung und Nutzung von KI zu unterstützen und ihre Daten in vollem Umfang und mit hoher Performance zu erschließen.“

Neo4j hat im August die Graphdatenbank um native Vektorsuche für semantische Suchanwendungen ergänzt. Anwender können damit sowohl implizite als auch explizite Beziehungen und Muster zwischen Daten erkennen. Die Graphdatenbank dient zudem als Basis von Knowledge Graphen und versetzt KI-Systeme in die Lage, Schlussfolgerungen zu ziehen, fehlende Daten abzuleiten und relevante Informationen effektiv abzurufen. Die Ergebnisse lassen sich als eine Art Langzeitgedächtnis für Large Language Models (LLMs) heranziehen und erhöhen dabei die Genauigkeit, Erklärbarkeit und Zuverlässigkeit der KI-generierten Inhalte und Antworten.

Weitere Informationen finden Sie im Neo4j Blog “ AWS and Neo4j Join Forces to Solve LLM Hallucinations and Evolve GenAI (https://neo4j.com/blog/neo4j-aws-enable-genai/)“ sowie in einer Demo (https://neo4j.com/videos/neo4j-with-amazon-bedrock/). Neo4j präsentiert die neuen Integrationen und Features zudem auf der AWS re:Invent 2023 in Las Vegas vom 27. bis 30. November 2023 (Stand 1304).

Über Neo4j
Neo4j, der führende Anbieter von Graphdatenbanken und Graph Analytics, hilft Unternehmen, Beziehungen und Muster innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum. Neo4js umfassender Graph Stack bietet leistungsstarke native Graph-Datenspeicherung, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Die Neo4j-Community mit ihren Open-Source Enthusiasten besteht aus mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten aus Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs. Besuchen Sie https://neo4j.com.

Firmenkontakt
Neo4j
Neo4j Media Hotline
. .
. .
.
http://neo4j.com/pr

Pressekontakt
Lucy Turpin Communications
Sabine Listl / Kathrin Schirmer
Prinzregentenstr. 89
81675 München
+49 89 417761-16
http://lucyturpin.de