Fivetran-Umfrage: Unternehmen setzen voll auf KI, aber haben die dafür notwendige Datengrundlage nicht

Umfrage unter Tech-Verantwortlichen bei Top-500 Unternehmen zeigt hohes Tempo bei der Umsetzung von KI-Initiativen bei gleichzeitigen Problemen bezüglich Skalierung, Integration und Compliance

Fivetran-Umfrage: Unternehmen setzen voll auf KI, aber haben die dafür notwendige Datengrundlage nicht

Integration Tools (Bildquelle: Fivetran)

München, 23. Juni 2025 – Fivetran (http://www.fivetran.com/), der weltweit führende Anbieter für Data Movement, präsentiert eine neue Studie. Sie zeigt: Nicht einmal die Hälfte (49 %) der Technologie-Verantwortlichen in Unternehmen sind der Meinung, ihre derzeitige Datenarchitektur wäre den Anforderungen für den Einsatz von KI gewachsen. Gleichzeitig planen 89 Prozent noch dieses Jahr ihre eigenen Daten für das Training großer Sprachmodelle (LLMs) zu verwenden. Diese Diskrepanz verdeutlicht, wie schnell die Unternehmen den Einsatz von KI vorantreiben, obwohl sie gleichzeitig einräumen, dass ihre Datensysteme dafür noch nicht bereit sind.

Der Bericht „2025 and Beyond: How a Strong Data Foundation Fuels Enterprise Success and AI-Driven Innovation“ (https://www.fivetran.com/resources/reports/2025-and-beyond-how-a-strong-data-foundation-fuels-enterprise-success-and-ai-driven-innovation) basiert auf einer Umfrage unter 500 US-amerikanischen Tech-Verantwortlichen auf C-Level, die in Unternehmen mit einem Jahresumsatz von mehr als 500 Millionen US-Dollar tätig sind. Die Studie zeigt, dass die Begeisterung für KI zwar groß ist, viele Unternehmen aber immer noch mit grundlegenden Problemen wie Datenintegration, Skalierbarkeit und Compliance zu kämpfen haben. 68 Prozent der Befragten gaben an, dass sie sich auf 50 oder mehr Datenquellen stützen, um Entscheidungen zu treffen. Mehr als ein Drittel nannte die Komplexität der Datenintegration als eine der größten Hürden. Andere bezeichneten die eingeschränkte Skalierbarkeit (34 %) sowie Sicherheits- und Compliance-Risiken (33 %) als Hauptprobleme.

„Ohne zentralisierte Daten kann man nicht sehen, was in einem Unternehmen wirklich passiert“, betont George Fraser, CEO von Fivetran. „Die meisten Unternehmen sind sehr engagiert, aber es mangelt an der Umsetzung. Schnelles und zuverlässiges Übertragen unterschiedlicher Daten erfordert die passende Strategie und die entsprechende Technologie. Deshalb investieren zukunftsorientierte Teams in Plattformen, die sicher skalieren, Komplexität beherrschen und den Einsatz von KI ermöglichen.“

Viele Unternehmen haben bereits Maßnahmen ergriffen. Die Hälfte der befragten Führungskräfte gab an, im kommenden Jahr 500.000 US-Dollar oder mehr in die Datenintegration investieren zu wollen. Ihr Fokus liegt dabei auf der Reduzierung der manuellen Wartung von Pipelines, der Verbesserung des Echtzeitzugriffs auf Daten und der Gewährleistung von Datenqualität und -management. Dennoch bleiben Herausforderungen: 45 Prozent der Befragten bemängeln fehlende Automatisierungs- oder Self-Service-Funktionen. 44 Prozent verweisen auf veraltete Systeme und 41 Prozent auf Wissenslücken in ihren Datenteams.

Technologieführungskräfte erkennen zudem die wachsende Verantwortung hinsichtlich Sicherheit und Compliance, die mit der Weiterentwicklung von Daten und KI-Funktionen einhergeht. 64 Prozent der CIOs mussten Innovationsvorhaben aufgrund von Compliance-Bedenken verschieben und wichtige Projekte auf Eis legen, um ihren Datenbestand zu organisieren.

Der Bericht verdeutlicht ebenfalls, wie sich die Rolle der Technologieverantwortlichen wandelt: 48 Prozent der Befragten rechnen mit mehr Verantwortung für Datenschutz und Compliance. 45 Prozent erwarten, dass sie eine größere Rolle bei der unternehmensweiten Datenstrategie übernehmen werden.

Einige Unternehmen sehen bereits Ergebnisse. So konnte bei Sedgwick (einem führenden Unternehmen im Bereich Risiko- und Schadenmanagement), dank einer zentralisierten und gut verwalteten Datengrundlage schnell auf Echtzeit-KI-Anwendungen umgestellt werden.

„Jetzt, da unsere Daten zentralisiert und mit Fivetran gemanaged werden, entwickeln wir KI-Tools, die unseren Sachverständigen Einblicke in Echtzeit bieten“, sagt Adam Fisher, Chief Data Officer bei Sedgwick. „Schadenregulierer können sehen, was ähnliche Schäden in der Vergangenheit gekostet haben und wie wahrscheinlich es ist, dass ein Fall juristisch verfolgt wird – und zwar direkt, während sie einen Fall prüfen. Diese Transparenz war bisher nicht möglich. Hier macht KI einen echten Unterschied.“

Die wichtigsten Ergebnisse sind:
– 89 % der Tech-Leader planen, in diesem Jahr ihre eigenen Daten für das Training von LMMs zu nutzen, aber nur 49 % glauben, dass ihre Architektur KI-Workloads unterstützen kann.
– 68 % geben an, dass sie sich auf 50 oder mehr Datenquellen stützen, um Entscheidungen zu treffen.
– 64 % der CIOs haben Innovationsbemühungen aufgrund von Compliance-Bedenken zurückgestellt.
– 50 % planen, im nächsten Jahr 500.000 US-Dollar oder mehr in die Datenintegration zu investieren.
– Fast die Hälfte der Befragten erwartet, dass sie mehr Verantwortung für Datenschutz, Compliance und die unternehmensweite Datenstrategie übernehmen werden.

Da immer mehr Unternehmen von KI-Pilotprojekten zu realen Anwendungen übergehen, wird eine starke Dateninfrastruktur zur Priorität. Ohne zuverlässigen, zentralen Zugang zu Daten sind selbst die fortschrittlichsten Tools unzureichend. Die aktuelle Umfrage zeigt, dass Investitionen zwar steigen, viele Unternehmen aber noch einen weiten Weg vor sich haben. Jetzt die richtige Grundlage zu schaffen, wird entscheidend sein für den Erfolg von KI-Initiativen in den kommenden Monaten und Jahren.

Der vollständige Bericht kann hier heruntergeladen (https://www.fivetran.com/resources/reports/2025-and-beyond-how-a-strong-data-foundation-fuels-enterprise-success-and-ai-driven-innovation) werden.

Bildmaterial zum Download: Fivetran Logo (https://www.dropbox.com/scl/fi/a2ztrhg0vorta5t9s2w6w/Fivetran-Logo.png?rlkey=k411t7x4od8kmycc507e2nhxa&st=w3044kkw&dl=0) / Integration Tools (https://www.dropbox.com/scl/fi/frk8theqda0oid8hr6aaj/FIVETRAN_IntegrationTools.png?rlkey=8vbe82a33wykacuxien9v7hpd&st=dzw9odlc&dl=0) / Challenges (https://www.dropbox.com/scl/fi/w3i7bvlktpq394ufd128e/FIVETRAN_Challenges.png?rlkey=72lx20jphr05it77mzo8kedez&st=h3qx08t5&dl=0)

Über Fivetran:
Fivetran, der weltweit führende Anbieter für Data Movement, hilft Unternehmen wie OpenAI, LVMH, Pfizer und Spotify, Daten aus SaaS-Anwendungen, Datenbanken, Dateien und anderen Quellen in Cloud-Destinationen, einschließlich Data Lakes, zu zentralisieren. Mit leistungsstarken Pipelines, nahtloser Integration und Sicherheit auf Enterprise-Niveau unterstützt Fivetran Organisationen dabei Dateninfrastrukturen zu modernisieren, Analysen zu erstellen und KI zu nutzen sowie Compliance sicherzustellen und bahnbrechende Ergebnisse zu erzielen.
Der deutschsprachige Markt wird aus dem Büro in München betreut. Zu den Kunden in Deutschland zählen DOUGLAS, Hermes, Lufthansa, Merck, Siemens und VW Financial Services. Weitere Informationen unter fivetran.com/de.

Firmenkontakt
Fivetran
Tobias Knieper (Marketing Lead DACH)
Franz-Joseph-Str. 11
80801 München
.
https://fivetran.com

Pressekontakt
Lucy Turpin Communications
Christine Schulze & Thomas Hahnel
Prinzregentenstraße 89
81675 München
+49 89 417761- 0

Home

LLM Benchmarking für die Versicherungswirtschaft: Balanceakt zwischen Performance und Sicherheit

KI-Experten von Insiders Technologies vergleichen anhand realer Daten aus der Versicherungs- und Finanzbranche Leistung, Datenschutz und Kosten aktueller LLM und finden kundenspezifisch das je nach Anwendungsfall optimale Setup.

LLM Benchmarking für die Versicherungswirtschaft: Balanceakt zwischen Performance und Sicherheit

Aktuelles LLM Benchmarking von Insiders Technologies vergleicht Performance und Sicherheitsaspekte.

Kaiserslautern, 13.06.2025 – Insiders Technologies, technologisch führender Anbieter von Software für Intelligent Automation (IA), veröffentlicht sein zweites LLM Benchmarking für die Finanz- und Versicherungsbranche. Das Tool vergleicht die Leistung einzelner Large Language Models (LLM) basierend auf einem standardisierten IDP-Datensatz mit realen Dokumenten aus der Versicherungs- und Finanzwelt. Für die aktuelle Q2-Ausgabe des Benchmarks haben die Expertinnen und Experten von Insiders 25 Modelle getestet, darunter neue, leistungsstarke LLM wie Claude 3.7 Sonnet, Gemini 2 Flash, Llama 3.3 70b und DeepSeek.

Lag der Fokus beim ersten LLM Benchmarking im ersten Quartal primär noch auf der reinen Performance in den Bereichen Informationsklassifikation und -extraktion, wurden nun zusätzlich Geschwindigkeit, Datenschutz und relative Kostenstruktur berücksichtigt – entscheidende Kriterien für den produktiven Einsatz im IDP-Umfeld.

In der Analyse hat insbesondere Gemini 2 Flash durch außerordentlich hohe Effizienz in der Ausgabe und Verarbeitungsgeschwindigkeit überzeugt. Damit bietet das LLM einen entscheidenden Vorteil für die schnelle Bearbeitung großer Datenmengen in zeitkritischen Verfahren.

Nach wie vor liegen die globalen Modelle im aktuellen Vergleich vorn. Den ersten Platz im Gesamtranking sicherte sich das Modell Claude 3.7 Sonnet von Anthropic mit einem Score von 90,17, dicht gefolgt vom Sieger des Januar-Rankings Claude Sonnet 3.5 mit 89,61 Punkten. Auf dem dritten Platz landete eines der bekanntesten Modelle: GPT-40 von Open AI mit einem Score von 86,33.

Auch das auf Datenschutz und Compliance optimierte Insiders Private LLM findet sich im Vergleich. Das vollständig in der nach ISO 27001-zertifizierten Insiders-Cloud betriebene Modell mit höchstem Datenschutzlevel ist ein bewusstes Tradeoff speziell für sensible Dokumententypen wie SEPA-Mandate oder medizinische Daten. Hoher Datenschutz, volle Kontrolle, lokale Verarbeitung und höchste Transparenz zeichnen das Modell aus. Damit eignet es sich besonders für informationssensible Branchen wie die Versicherungs- und Finanzbranche.

Mit seinem Benchmarking veranschaulicht Insiders Technologies die Herausforderung, den Balanceakt zwischen Performance und Sicherheit zu meistern. Mit seinem Brest-of-Breed-Ansatz begegnet das Unternehmen dieser Herausforderung, indem es die leistungsfähigsten LLMs auf dem Markt identifiziert und über seine OvAItion Engine in all seinen Produkten integriert. Damit haben die Kunden die Möglichkeit, dass für ihren jeweiligen Anwendungsfall optimale Setup auszuwählen und angepasst an ihre individuellen Bedürfnisse das Level an Performance und Sicherheit zu erreichen, das sie tatsächlich benötigen.

„Gerade in hochregulierten Branchen wie der Versicherungswirtschaft kommt es nicht nur auf die reine Leistung eines LLM an, sondern auch auf Aspekte wie Datenschutz, Kostenkontrolle und Verarbeitungsgeschwindigkeit“, erklärt Dr. Alexander Lück, Team OvAItion/Data Management und Verantwortlicher für das LLM Benchmarking bei Insiders Technologies. „Unser Benchmark zeigt, dass es kein Modell für alle Fälle gibt. Stattdessen ermöglichen wir unseren Kunden, mit einem maßgeschneiderten Setup aus führenden LLMs und unserem Private-Modell die optimale Balance aus Effizienz und Sicherheit zu finden.“

Erscheint ein neues Modell auf dem Markt, wird dieses im aktuellen Insiders LLM Benchmarking auf die Probe gestellt und mit den bisherigen LLMs verglichen. Die gewonnen Erkenntnisse fließend direkt in die Produktentwicklung ein und sorgen für eine dauerhaft hohe Qualität für die Insiders-Kunden.

Die aktuelle Ausgabe Q2-2025 des LLM Benchmarkings kann hier kostenlos bezogen werden:
https://insiders-technologies.com/wp-content/uploads/2025/06/Onepager_PDF_Benchmarking_Mai_2025_DE-2.pdf

Weitere Informationen zur intelligenten Prozessautomatisierung in der Versicherungswirtschaft:
https://insiders-technologies.com/de/insurance-automation

Insiders Technologies ist technologisch führender und marktetablierter Anbieter von Software zur intelligenten Automatisierung von Geschäftsprozessen (Intelligent Automation, IA). Mehr als 5.000 Kunden aus allen Branchen vertrauen bei der Optimierung ihrer dokumentzentrierten Geschäftsprozesse auf die innovativen Lösungen des Produkthauses aus Kaiserslautern. Als erfolgreichstes Spin-Off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) hat es sich Insiders zur Aufgabe gemacht, modernste KI in echten Kundennutzen zu überführen. Dank neuester Deep Learning-Technologien verstehen die Software-Lösungen heterogene Inhalte, extrahieren geschäftsrelevante Informationen, automatisieren Transaktionen und verkürzen Reaktionszeiten. Dabei sind der technologische Pioniergeist und die Agilität ein Garant für kontinuierliche Innovationen und Produkte am Puls der Zeit. https://www.insiders-technologies.com/

Firmenkontakt
Insiders Technologies GmbH
Lisa Holländer
Brüsseler Str. 1
67657 Kaiserslautern
+49 631 92081 1620
https://www.insiders-technologies.com/

Pressekontakt
bloodsugarmagic GmbH & Co. KG
Bernd Hoeck
Gerberstr. 63
78050 Villingen-Schwenningen
+49 7721 9461 220
http://www.bloodsugarmagic.com

Zukunft der Automatisierung: Baloise migriert KI-Lösungen in die Insiders Cloud

Das Versicherungsunternehmen nutzt die Insiders KI OvAItion seit fast 15 Jahren zur automatisierten Belegverarbeitung und migrierte die Lösungen nun komplett in die Insiders Cloud. Das fördert schnelle Innovationen und eine effiziente Umsetzung.

Zukunft der Automatisierung: Baloise migriert KI-Lösungen in die Insiders Cloud

Baloise ist mit der Verlagerung in die Insiders Cloud effizienter und agiler bei Innovationen

Kaiserslautern, 12. März 2025 – Insiders Technologies, technologisch führender Anbieter von Software für Intelligent Automation (IA), gibt bekannt, dass das Versicherungsunternehmen Baloise die Insiders Lösungen zum KI-gestützten Inputmanagement nun vollständig aus der Insiders Cloud bezieht. Durch die Verlagerung von on-premises in die Cloud konnte die Baloise IT ihre Effizienz durch Fokussierung steigern und das Unternehmen profitiert früher von den Produktinnovationen von Insiders Technologies.

Der Schweizer Versicherungskonzern Baloise mit Hauptsitz in Basel und Tochtergesellschaften in Belgien, Deutschland und Luxemburg hält seinen Kundinnen und Kunden seit mehr als 160 Jahren in Finanzfragen den Rücken frei. Unter der Prämisse „Nichts tun ist keine Lösung!“ verfolgt die Baloise IT eine klare Multi-Cloud-Strategie, um ihrer Rolle als Innovationsmotor im Unternehmen auch zukünftig gerecht zu werden. Für die eigenen Dienste hat sie eine Hybrid Cloud eingerichtet, die aus einer Private Cloud und einer Azure-basierten Public Cloud besteht. Ergänzt wird diese durch Cloud-Angebote von Herstellern wie Insiders Technologies oder anderen Businesspartnern, die SaaS-Lösungen anbieten. Mit der Nutzung der Insiders Cloud für das KI-basierte Inputmanagement hat die Baloise einen wichtigen Meilenstein bei der Umsetzung ihrer Cloud Strategie erreicht.

Baloise steht vor der Herausforderung, taggleich ein hohes Volumen von rund 140.000 Dokumenten pro Monat – die teilweise bis zu 1.000 Seiten umfassen können – effizient zu verarbeiten. Die Belege erreichen Baloise über diverse Eingangskanäle wie Papier, E-Mail, Chat, App oder Portale und verteilen sich auf mehr als 250 Dokumentenklassen.

Um diese komplexen Aufgaben zu bewältigen, setzt Baloise seit 15 Jahren auf die Lösungen von Insiders Technologies für die universelle Belegerkennung und -lesung sowie auf das intelligente Invoice Management für die automatisierte Eingangsrechnungsverarbeitung. Zur Lösung von Use Cases durch die Fachbereiche selbst setzt Baloise seit kurzem den neuen GenerAItor zur Generierung von KI-Services im No-Code-Verfahren ein. Alle Lösungen werden als Cloud Service aus der Insiders Cloud genutzt. Die moderne KI-Technologie OvAItion und die OmnIA-Plattform für Intelligent Automation bieten Baloise höchste Präzision bei der Klassifizierung und beim Auslesen der Dokumente und ermöglichen es, eine Null-Fehler-Toleranz umzusetzen.

Timo Kohler, Product Owner Input Management bei Baloise, betont die Bedeutung dieser technologischen Unterstützung: „Insiders setzt alle relevanten KI-Trends aus der Forschung in praxisorientierte Lösungen um. Die intelligenten Produkte sind unser Universalwerkzeug zur Verarbeitung von Input jeder Art und wir ziehen großen Nutzen aus ihrem Einsatz bei der Automatisierung von Prozessen.“

Die Insiders-Technologien ermöglichen es Baloise nicht nur, die operative Effizienz zu steigern, sondern auch ihre Mitarbeitenden von routinemäßigen Aufgaben zu entlasten und so dass diese sich auf Kernkompetenzen konzentrieren können. Die Umsetzung von Business-Anforderungen erfolgt mit den neuen Insiders Produkten drei- bis viermal schneller, und der Zugriff auf Produktverbesserungen sowie Innovationen für neue Anwendungsfälle wird deutlich beschleunigt.

„Das Potential der Insiders KI OvAItion, insbesondere durch die Möglichkeit, LLMs einzubinden, ist riesig. Wir haben aktuell eine To-Do-Liste von rund 50 Anwendungsfällen, die wir mit KI automatisieren und optimieren wollen. Die Insiders Cloud und der No-Code-GenerAItor machen uns die Umsetzung dabei besonders leicht“, erläutert Timo Kohler den Innovationsschub durch die Insiders Lösungen.

Innerhalb von nur 18 Monaten migrierte Baloise alle sechs Mandanten der Inputmanagement-Lösung in Stufen auf die Insiders Cloud. Mit der Anbindung der Insiders Cloud konnte die gewünschte Real-time-Verarbeitung mit einer Event-driven-Steuerung umgesetzt werden. So stehen die eingehenden Schadensmeldungen unabhängig vom Eingangskanal nun innerhalb von Minuten detailliert ausgelesen im System bereit.

Der umfassende Projektbericht über die Nutzung der Insiders Cloud Services zum Inputmanagement bei Baloise steht hier bereit: https://insiders-technologies.com/de/customer-overview/#success-stories

Weitere Informationen über den Hersteller intelligenter Software für Prozessautomatisierung auf Basis von KI: https://www.insiders-technologies.com/

Insiders Technologies ist technologisch führender und marktetablierter Anbieter von Software zur intelligenten Automatisierung von Geschäftsprozessen (Intelligent Automation, IA). Mehr als 5.000 Kunden aus allen Branchen vertrauen bei der Optimierung ihrer dokumentzentrierten Geschäftsprozesse auf die innovativen Lösungen des Produkthauses aus Kaiserslautern. Als erfolgreichstes Spin-Off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) hat es sich Insiders zur Aufgabe gemacht, modernste KI in echten Kundennutzen zu überführen. Dank neuester Deep Learning-Technologien verstehen die Software-Lösungen heterogene Inhalte, extrahieren geschäftsrelevante Informationen, automatisieren Transaktionen und verkürzen Reaktionszeiten. Dabei sind der technologische Pioniergeist und die Agilität ein Garant für kontinuierliche Innovationen und Produkte am Puls der Zeit. https://www.insiders-technologies.com/

Firmenkontakt
Insiders Technologies GmbH
Lisa Holländer
Brüsseler Str. 1
67657 Kaiserslautern
+49 631 92081 1620

Home_NEU

Pressekontakt
bloodsugarmagic GmbH & Co. KG
Bernd Hoeck
Gerberstr. 63
78050 Villingen-Schwenningen
+49 7721 9461 220
http://www.bloodsugarmagic.com

Insiders Technologies bietet LLM Benchmarking für Versicherungswirtschaft

Regelmäßiges Benchmarking der relevanten LLMs mit dedizierten Use Cases von Versicherungen gibt kompakt Aufschluss über Performanceunterschiede der Modelle. Vergleich als unverzichtbare Entscheidungsgrundlage.

Insiders Technologies bietet LLM Benchmarking für Versicherungswirtschaft

Insiders macht mit LLM Benchmarking für Versicherungen Leistungsunterschiede bei LLMs transparent

Kaiserslautern, 30.1.2025 – Insiders Technologies, technologisch führender Anbieter von Software für Intelligent Automation (IA), bietet ab sofort ein völlig neuartiges Tool zur Auswahl von Large Language Modellen (LLM) als KI-Komponenten für die Versicherungswirtschaft an. Der Benchmark vergleicht die Leistung einzelner LLMs basierend auf spezifischen Anforderungen aus dem Inputmanagement von Versicherungen. In der Januar-Ausgabe des Benchmarks wurden 15 Modelle getestet – darunter u.a. verschiedene GPT-Versionen von OpenAI, mehrere Claude-Varianten von Anthropic, verschiedene Modelle des europäischen Anbieters Mistral sowie LLAMA von Meta und Gemini von Google. Mit im Rennen ist auch das Insiders Private LLM mit seinem besonders hohen Datenschutzlevel.

Aktuell haben US-Anbieter die Nase vorn

Das aktuelle Insiders LLM Benchmarking zeigt, dass die bekannten US-amerikanischen Anbieter aufgrund ihrer immensen Rechenpower und der massiven Menge an Trainingsdaten wie erwartet die Nase vorn haben. Auf Platz 1 im Gesamtranking landet Claude 3.5 Sonnet von Anthropic mit einem Score von 90,10, dicht gefolgt vom Medienstar GPT-4o von OpenAI mit 87,11 Punkten. Den dritten Platz belegt Gemini 1.5 Pro von Google mit 86,98 Punkten. Das Insiders Private LLM erreicht eine beachtliche Gesamtperformance von insgesamt 72,33 und sticht mit seinen unübertroffenen Datenschutzstandards hervor. Dadurch ist es auch für die Verarbeitung besonders sensibler Informationen aus der Versicherungswirtschaft geeignet.

Breites, standardisiertes Testfeld garantiert hohe branchenspezifische Aussagekraft

Basierend auf mehr als 25 Jahren Branchenerfahrung mit KI im Inputmanagement von Versicherungsunternehmen hat Insiders ein breites Testfeld aus typischen Anwendungsfällen und praxisnahen Testdaten geschaffen. Die Anwendungsfälle in der Testmenge beinhalten u.a. Adress- und Namensänderungen, Prämienrechnungen, Schadensberichte, SEPA-Mandate sowie medizinische Dokumente und bilden so eine Vielzahl an gängigen Geschäftsprozessen praxisnah ab.

„Mit dem LLM Benchmarking für Versicherungen liefert Insiders eine unverzichtbare Entscheidungsgrundlage für den Einsatz von LLMs in der Versicherungswirtschaft“, erklärt Rolf Zielke, Executive Consultant bei Insiders Technologies. „Versicherungen haben einen teilweise sehr spezifischen Bedarf und die Wirtschaftlichkeit einer Lösung entscheidet sich immer im Detail. Da ist die Transparenz durch den LLM Benchmark Gold wert.“

Warum einschränken, wenn man flexibel die besten LLMs nutzen kann?

Die Insiders OvAItion Engine ermöglicht die Nutzung der jeweils aktuell besten LLMs – auch in Kombination – zur Lösung spezifischer Anwendungsfälle. Mit den Detailkenntnissen aus dem Benchmarking und der Erfahrung aus zahlreichen Kundenprojekten in der Versicherungswirtschaft kann Insiders konkrete Empfehlungen für den Einsatz bestimmter Technologien in bestimmten Use Cases aussprechen. In OvAItion sind diese bereits grundlegend vorkonfiguriert und die technische, vertragliche und datenschutzrechtliche Integration fremder oder unterschiedlicher KI-Modelle ist für die Kunden bereits umgesetzt. Dabei lassen sich verschiedene KI-Technologien im Hintergrund austauschen, ohne Unterbrechungen oder Anpassungsaufwände zu verursachen. Der Kunde bindet einmal OvAItion an und hat damit Zugang zu einem breiten Spektrum an aktuellen und auf Wirksamkeit geprüften KI-Technologien im Unternehmen. Dadurch können Kunden Best-of-Breed-Technologien nutzen, ohne die üblichen Nachteile in Kauf nehmen zu müssen.

„OvAItion bietet die Power der jeweils besten LLMs für die Versicherungswirtschaft im Markt aus einer Hand und Versicherungen können flexibel zwischen den Modellen hin und her schalten. So profitieren sie von den jeweils neusten Innovationen ohne Integrationsaufwand oder langwierigem Know-how-Aufbau“, erläutert Zielke die Vorteile.

Individuelle Benchmarkings und LLM-Beratung für Versicherungen

Bei der Frage nach dem Besten geht es allerdings nicht nur um die reine Power. Gerade im Versicherungs- und Finanzbereich müssen Unternehmen häufig zwischen Leistung und Sicherheit abwägen. Hinzu kommen individuelle Vorgaben in Bezug auf Kosten, Geschwindigkeit und dem Grad der Dunkelverarbeitung. Oft bringt gerade die Kombination von State of the Art Deep-Learning-Verfahren und modernen LLMs den gewünschten Erfolg. Für individuelle Benchmarkings mit eigenen Use Cases bieten die KI-Experten von Insiders zudem eine fundierte Beratung an.

Die aktuelle Ausgabe Januar 2025 des LLM Benchmarkings für Versicherungen kann hier kostenlos bezogen werden: https://bit.ly/InsidersTechnologiesLLMBenchmarking2025

Weitere Informationen zur intelligenten Prozessautomatisierung in der Versicherungswirtschaft:
https://insiders-technologies.com/de/insurance-automation

Insiders Technologies ist technologisch führender und marktetablierter Anbieter von Software zur intelligenten Automatisierung von Geschäftsprozessen (Intelligent Automation, IA). Mehr als 5.000 Kunden aus allen Branchen vertrauen bei der Optimierung ihrer dokumentzentrierten Geschäftsprozesse auf die innovativen Lösungen des Produkthauses aus Kaiserslautern. Als erfolgreichstes Spin-Off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) hat es sich Insiders zur Aufgabe gemacht, modernste KI in echten Kundennutzen zu überführen. Dank neuester Deep Learning-Technologien verstehen die Software-Lösungen heterogene Inhalte, extrahieren geschäftsrelevante Informationen, automatisieren Transaktionen und verkürzen Reaktionszeiten. Dabei sind der technologische Pioniergeist und die Agilität ein Garant für kontinuierliche Innovationen und Produkte am Puls der Zeit. https://www.insiders-technologies.com/

Firmenkontakt
Insiders Technologies GmbH
Lisa Holländer
Brüsseler Str. 1
67657 Kaiserslautern
+49 631 92081 1620

Home_NEU

Pressekontakt
bloodsugarmagic GmbH & Co. KG
Bernd Hoeck
Gerberstr. 63
78050 Villingen-Schwenningen
+49 7721 9461 220
http://www.bloodsugarmagic.com

Dunkelverarbeitung in Versicherungsprozessen mit LLM maximieren

Nürnberger Versicherung und Insiders Technologies zeigen auf Fachkonferenz der Versicherungsforen Leipzig, wie Versicherungsunternehmen von LLM und anderen zukunftsweisenden KI-Technologien profitieren können.

Dunkelverarbeitung in Versicherungsprozessen mit LLM maximieren

Nürnberger Versicherung und Insiders Technologies präsentieren Umsetzung fortschrittlicher KI-Lösung

Kaiserslautern, 15. Januar 2025 – Insiders Technologies, technologisch führender Anbieter von Software für Intelligent Automation (IA), nimmt gemeinsam mit seinem Kunden Nürnberger Versicherung an der Fachkonferenz „Dunkelverarbeitung & Workflowunterstützung in Versicherungen“ teil. Auf der Veranstaltung der Versicherungsforen Leipzig geben die beiden Unternehmen exklusive Einblicke in konkrete Use Cases, teilen lehrreiche Erfahrungen und praktische Anwendungsbeispiele.

Moderne Herausforderungen, intelligente Antworten

Regulatorische Anforderungen und zunehmende Digitalisierungsprozesse fordern innovative Lösungen in der Versicherungswirtschaft. Der Druck durch InsurTechs und die wachsende Komplexität der Geschäftsprozesse machen eine kontinuierliche Prozessoptimierung unverzichtbar. „Durch die Kombination von LLM und bewährten On-Premises-Systemen können wir eine hybride KI-Architektur schaffen, die maximale Effizienz ermöglicht“, erklärt Christian Bokelmann, Leiter der Business Unit Insurance bei Insiders Technologies.

Gemeinsam mit Frank Schlelein, Product Owner Inputmanagement bei der Nürnberger Versicherung, veranschaulicht Bokelmann in einem Vortrag mit dem Titel „Intelligente Automatisierung in der Schadenbearbeitung – von On-Prem zu LLM und zurück“, wie die Nürnberger Versicherung durch die Einbindung moderner KI-Technologien in bestehende Systeme ihre Dunkelverarbeitungsquote deutlich steigern konnte. Mit konkreten Beispielen aus der Schadenbearbeitung zeigen die Referenten auf, wie hybride Architekturen dazu beitragen, den Aufwand für manuelle Nachbearbeitung zu minimieren und eine nahtlose Integration neuer Technologien zu gewährleisten.

Gerüstet für die Zukunft

Mit tiefgreifender Expertise und der kontinuierlichen Weiterentwicklung seiner KI-Lösungen, liefert Insiders Technologies einen entscheidenden Mehrwert für Versicherungsunternehmen. „Unsere Lösungen sind so flexibel, dass sie sowohl aktuelle als auch zukünftige Anforderungen optimal erfüllen“, betont Bokelmann.

Die Fachkonferenz der Versicherungsforen Leipzig, einem Partnernetzwerk aus mehr als 270 Unternehmen der Versicherungswirtschaft, Erst- und Rückversicherern sowie Software- und Beratungshäusern der Versicherungsbranche findet am 4. und 5. Februar 2025 in Leipzig statt. Sie richtet sich an Fach- und Führungskräfte aus IT-Abteilungen von Versicherungsunternehmen, insbesondere in den Bereichen Prozessmanagement, Unternehmensarchitektur, Prozessautomatisierung und Digitalisierung. Die Teilnehmenden erhalten Einblicke in aktuelle Entwicklungen und technische Möglichkeiten sowie praxisnahe Berichte aus unterschiedlichen Versicherungsunternehmen.

Weitere Informationen zu den KI-basierten Lösungen für die Versicherungswirtschaft:
https://insiders-technologies.com/de/insurance-automation

Weitere Informationen über den Hersteller intelligenter Software für Prozessautomatisierung auf Basis von KI: https://www.insiders-technologies.com/

Insiders Technologies ist technologisch führender und marktetablierter Anbieter von Software zur Cognitive Process Automation. Mehr als 5.000 Kunden aus allen Branchen vertrauen bei der Optimierung ihrer dokumentzentrierten Geschäftsprozesse auf die innovativen Lösungen des Produkthauses aus Kaiserslautern. Als erfolgreichstes Spin-Off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) hat es sich Insiders zur Aufgabe gemacht, modernste KI in echten Kundennutzen zu überführen. Dank neuester Deep Learning-Technologien verstehen die Software-Lösungen heterogene Inhalte, extrahieren geschäftsrelevante Informationen, automatisieren Transaktionen und verkürzen Reaktionszeiten. Dabei sind der technologische Pioniergeist und die Agilität ein Garant für kontinuierliche Innovationen und Produkte am Puls der Zeit.

Firmenkontakt
Insiders Technologies GmbH
Lisa Holländer
Brüsseler Str.
67657 Kaiserslautern
+49 631 92081 1620

Home_NEU

Pressekontakt
bloodsugarmagic GmbH & Co. KG
Bernd Hoeck
Gerberstr. 63
78050 Villingen-Schwenningen
+49 7721 9461 220
http://www.bloodsugarmagic.com

Alibaba Cloud fördert KI-Innovationen in Asien

5 Use Cases aus Gesundheit, Tourismus, Beauty und Technologie, die Asiens KI-Innovationen prägen

Alibaba Cloud, das IT-Kompetenzzentrum der Alibaba Group, treibt mit seiner ‚Cloud + KI‘-Entwicklungsstrategie technologische Innovationen in verschiedenen Branchen voran. Laut den aktuellen Quartalszahlen verzeichnet das Unternehmen ein solides Wachstum bei den Umsätzen mit externen Kunden: zweistellige Zuwächse bei Public-Cloud-Diensten und beeindruckende dreistellige Wachstumsraten bei KI-Produkten – bereits im fünften Quartal in Folge.

KI-Innovationen, die über den Hype hinausgehen

Asiatische Unternehmen setzen auf Alibaba Cloud, um ihre Geschäftsabläufe durch den Einsatz fortschrittlicher KI zu transformieren. Dabei reicht die Bandbreite von hochmodernen LLMs (Large Language Models) bis hin zu KI-gestützten Bildtechnologien, die Unternehmen helfen, schneller, effizienter und kundenorientierter zu arbeiten.

„Unsere Cloud-Infrastruktur und KI-Lösungen unterstützen Unternehmen dabei, ihre Effizienz zu steigern und die Kundenbindung zu intensivieren. Als führender Cloud-Anbieter in Asien setzen wir auf Partnerschaften, um das Potenzial von KI und Cloud für Unternehmen jeder Größe auszuschöpfen“, erklärt Selina Yuan, Präsidentin von International Business bei Alibaba Cloud Intelligence.

KI-basierte Beauty-Beratung

Drunk Elephant, eine bekannte Hautpflegemarke, hat das neueste Foundation-Modell Qwen-max von Alibaba Cloud in seinen Chatbot DRUNKGPT integriert, um personalisierte Hautpflegeempfehlungen zu bieten. Der KI-gesteuerte Assistent wird mit einer Wissensdatenbank zur Hautpflege trainiert, um maßgeschneiderte Ratschläge zu geben.

DRUNKGPT nutzt fortschrittliche Technologien wie Supervised Fine-Tuning (SFT) und Retrieval Augmented Generation (RAG), um die Antworten auf Kundenanfragen zu optimieren und relevanter zu gestalten. Diese Lösung bietet eine tiefergehende Interaktion mit der Marke und stärkt die Kundenbindung.

KI-Ernährungsberater mit personalisierten Tipps

Haleon China nutzt Alibaba Clouds Qwen-LLM zusammen mit RAG-Technologie, um einen spezialisierten KI-Ernährungsassistenten namens iNutrition zu entwickeln. Diese Lösung bietet den chinesischen Verbrauchern personalisierte, auf ihre spezifischen Bedürfnisse abgestimmte Ernährungstipps.

Durch die Integration von Qwen mit Haleons umfangreicher interner Wissensdatenbank kann iNutrition präzise und maßgeschneiderte Ratschläge zur Ernährung und Gesundheit liefern. Diese Lösung stellt sicher, dass die Beratung den individuellen Bedürfnissen der Verbraucher entspricht.

Fotografie 2.0

In Malaysia setzt Pictureworks, ein führender Anbieter von Fotolösungen, auf Alibaba Clouds KI- und Cloud-Technologien, um die Flexibilität und Qualität von hochauflösenden Aufnahmen zu verbessern. Dies wird erfolgreich an sieben führenden Touristenattraktionen in Asien umgesetzt, mit über 150.000 Fotos, die in einem preisgekrönten Freizeitpark in Hongkong produziert wurden.

Die Kerntechnologie von Alibaba Cloud, die hier eingesetzt wird, umfasst die Platform for Artificial Intelligence (PAI), Function Compute und OSS. PAI erleichtert den gesamten Lebenszyklus des maschinellen Lernens und bietet eine vollständig verwaltete Dienstleistung zur Modellbereitstellung. Dadurch kann Pictureworks KI-Modelle schnell und effizient anpassen, ohne auf traditionelle Setups wie Green Screens angewiesen zu sein.

Reiseanbieter senkt Kosten um 45 %

Das Unternehmen Atlas aus Singapur, ein Anbieter von B2B-Reise-Technologie, hat die KI-Plattform von Alibaba Cloud genutzt, um einen digitalen Chatbot zu implementieren, der 24/7-Kundensupport bietet. Dieser Chatbot beantwortet Anfragen zu Buchungsprozessen und Zahlungsoptionen und hat es Atlas ermöglicht, die Betriebskosten um 45 % zu senken.

Durch die Integration von Alibaba Clouds Qwen-LLM und Model Studio hat Atlas eine skalierbare und sichere Infrastruktur geschaffen, die nicht nur den Betrieb optimiert, sondern auch die Kundenerfahrung erheblich verbessert.

Japans Startups setzen auf neue KI-Infrastruktur

In Japan hat das Startup Lightblue, eine Initiative der Universität Tokio, die Qwen-Modelle von Alibaba Cloud genutzt, um japanische Sprachmodelle zu entwickeln. Diese LLMs verbessern die Genauigkeit der natürlichen Sprachverarbeitung (NLP) und sind speziell auf die Bedürfnisse der japanischen Sprache abgestimmt.

Die Lösung nutzt die skalierbare Architektur von Alibaba Cloud, einschließlich Elastic Compute Service (ECS), Server Load Balancer und Object Storage Service (OSS), um sichere und effiziente Cloud-Dienste bereitzustellen. Die Verwendung von Qwen hat dazu beigetragen, das Modell in Bezug auf Präzision und Funktionalität signifikant zu verbessern.

Alibaba Cloud (www.alibabacloud.com) wurde 2009 gegründet und fungiert als IT-Kompetenzzentrum der Alibaba Group. Das Unternehmen bietet weltweit eine umfassende Suite von Cloud-Services an, darunter elastisches Computing, Datenbankdienste, Speicherlösungen, Netzwerkvirtualisierung, großangelegte Rechenleistung, Sicherheitsdienste, Big-Data-Analysen, maschinelles Lernen und künstliche Intelligenz (KI)-Services. Seit 2018 ist Alibaba laut Gartner der führende IaaS-Anbieter im Asien-Pazifik-Raum, gemessen am Umsatz in US-Dollar. Zudem gehört das Unternehmen seit 2018 zu den weltweit führenden Anbietern von Public-Cloud-IaaS-Diensten, wie IDC berichtet.

Firmenkontakt
Alibaba Cloud (Kontakt ist PR-Agentur)
Louisa Struif
Sendlinger Straße 42 A
80331 München
+49 (0) 89 211 871 59
https://www.alibabacloud.com/de

Pressekontakt
Schwartz PR
Louisa Struif
Sendlinger Straße 42A
80331 München
+49 (0) 89 211 871 59

Home Page

Insiders Technologies zündet Produktfeuerwerk

Produktinnovationen erlauben Best-of-Breed-Ansatz bei Large Language Models (LLMs) und vereinfachen Integration und Orchestrierung. Die Kombination verschiedener KI-Technologien erschließt neue Anwendungsfelder für Intelligent Automation.

Insiders Technologies zündet Produktfeuerwerk

Insiders Technologies erreicht mit Produktlaunch neues Level intelligenter Prozessautomatisierung

Kaiserslautern, 15. Oktober 2024 – Insiders Technologies, technologisch führender Anbieter von Software für Intelligent Automation (IA), erschließt seinen Kunden mit dem Launch dreier Produkte ein neues Level der intelligenten Prozessautomatisierung. Mit dem Low-Code-Servicegenerator GenerAItor, der Best-of-Breed-KI-Technologie OvAItion und der neuen Intelligent-Automation-Plattform OmnIA können Anwender schnell neue KI-Services erstellen, dabei die jeweils aktuell beste Technologie einsetzen und optimal in ihre Prozesse und Systeme integrieren. Kunden profitieren von einem einfacheren und risikoärmeren Zugang zu aktuellen KI-Innovationen und erreichen deutlich höhere Automatisierungsraten bei der Verarbeitung unstrukturierter Informationen im Kundenservice oder in Lieferantenbeziehungen.

OvAItion: Die besten KI-Technologien out of the box nutzen

Insiders Technologies reagiert auf die Fülle an neuen LLMs und anderen KI-Technologien mit der Öffnung der eigenen Insiders KI für Technologien von Dritten. Neben den bewährten eigenen Lösungen wie z.B. einem private LLM stehen den Kunden neben OvAItion weitere KI-Services wie GPT-40 (OpenAI), Claude Sonnet (Anthropic), Azure AI (Microsoft) und Gemini Google AI vollständig integriert zur Kombination bereit. Je nach Use Case und der individuellen Stärke der verschiedenen LLMs lassen sich damit beispielsweise Dokumente ohne Training klassifizieren und Informationen extrahieren, die Dunkelverarbeitungsrate mit höchster Datenqualität durch Green Voting signifikant steigern sowie schnell und effizient datenschutzkonforme Klassifikationsservices erstellen. Zudem evaluiert Insiders kontinuierlich neue Versionen und Anbieter mit Blick auf verschiedene Einsatzszenarien. So erlöst Insiders Technologies seine Kunden von der Notwendigkeit, sich im rasant wandelnden Markt der KI-Anbieter jetzt für eine Technologie oder einen Anbieter entscheiden zu müssen. Damit profitieren Kunden von zukünftigen Innovationssprüngen und schützen gleichzeitig ihre Investitionen in Integration und Prozesse.

GenerAItor: No Code KI-Services generieren

Mit dem GenerAItor stellt Insiders ein nutzerfreundliches Tool vor, mit dem sich KI-Services ganz einfach und ohne IT-Kenntnisse im Low-Code-Verfahren erstellen lassen. Dabei steht das gesamte Spektrum an Technologien von OvAItion (inkl. ausgewählter LLMs) zur Verfügung. So werden bei minimalem Trainingsaufwand höchste Erkennungsraten erreicht. Neben vollständig individuellen Automatisierungsservices haben Kunden zudem die Möglichkeit, über den Insiders Marketplace auf einen stetig wachsenden Katalog an bereits vortrainierten KI-Services zuzugreifen, die out of the box unmittelbar einsetzbar sind aber auch individuell angepasst werden können.

OmnIA: Produktion orchestrieren bei maximaler Skalierbarkeit

Die neue Plattform OmnIA für Intelligent Automation sorgt für eine reibungslose Integration von KI-Services in die Prozesse und Systeme der Kunden. Sie erlaubt die Konfiguration und Orchestrierung von Services und Prozessen, bindet – falls erforderlich – die Mitarbeitenden perfekt zur Verifikation von Ergebnissen ein (Human-in-the-loop) und bietet mit Business Intelligence und Analysen die Grundlage für eine kontinuierliche Verbesserung von Prozessen und Technologieeinsatz.

Automatisierungsservices der nächsten Generation

Die neuen Produkte sind eine konsequente Weiterentwicklung des bewährten smart-Produktportfolios. Die smart-Produkte sind bereits in die neue Produktwelt überführt und werden durch sie sukzessive ersetzt. Für Kunden und Partner ist ein einfacher Umstieg in die neue Produktwelt somit im Rahmen der normalen Produktpflege problemlos möglich.

„Die KI durchläuft aktuell enorme Technologiesprünge und Innovationsschübe. Mit unseren neuen Produkten können unsere Kunden davon sofort profitieren, ohne dass sie viel Aufwand in die Evaluation, Konzeption oder Integration stecken müssen. Sie finden die jeweils besten Technologien integriert in unsere bewährte Plattform. Das stärkt die Agilität unserer Kunden und sorgt gleichzeitig für ein Höchstmaß an Sicherheit und Datenschutz-Compliance“, erklärt Christian Bokelmann, Prokurist und Leiter der Business Unit „Intelligent Automation“ bei Insiders Technologies.

Weitere Informationen über den Hersteller intelligenter Software für Prozessautomatisierung auf Basis von KI: https://www.insiders-technologies.com/

Weitere Informationen zur den KI-Services aus der Insiders Cloud und dem Insiders Marketplace:
https://insiders-marketplace.com/de/

Insiders Technologies ist technologisch führender und marktetablierter Anbieter von Software zur Cognitive Process Automation. Mehr als 5.000 Kunden aus allen Branchen vertrauen bei der Optimierung ihrer dokumentzentrierten Geschäftsprozesse auf die innovativen Lösungen des Produkthauses aus Kaiserslautern. Als erfolgreichstes Spin-Off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) hat es sich Insiders zur Aufgabe gemacht, modernste KI in echten Kundennutzen zu überführen. Dank neuester Deep Learning-Technologien verstehen die Software-Lösungen heterogene Inhalte, extrahieren geschäftsrelevante Informationen, automatisieren Transaktionen und verkürzen Reaktionszeiten. Dabei sind der technologische Pioniergeist und die Agilität ein Garant für kontinuierliche Innovationen und Produkte am Puls der Zeit.

Firmenkontakt
Insiders Technologies GmbH
Dr. Stephan Stuhlmann
Brüsseler Str. 1
67657 Kaiserslautern
+49 631 92081 1639

Home_NEU

Pressekontakt
bloodsugarmagic GmbH & Co. KG
Bernd Hoeck
Gerberstr. 63
78050 Villingen-Schwenningen
+49 7721 9461 220
http://www.bloodsugarmagic.com

Neue Version TIM 5.1 – einfach effizienter

Neue Version TIM 5.1 - einfach effizienter

Redaktionssystem TIM 5.1 macht die Arbeit in der Technischen Doku noch intuitiver und effizienter

Radolfzell, 10. Oktober 2024. Fischer Information Technology, der Radolfzeller Software-Spezialist für Produkt- und Servicekommunikation, gibt die Veröffentlichung der neuesten Version 5.1 seines innovativen Redaktionssystems TIM bekannt. Diese Version bringt zahlreiche Verbesserungen und neue Funktionen mit sich, die die Arbeit in der Technischen Redaktion noch intuitiver und effizienter gestaltet.

Mit dem Redaktionssystem TIM 5.1 wird nun eine offizielle REST API released. Über diese Schnittstelle lassen sich komfortabel alle redaktionellen Inhalte abfragen und auch verändern. Diese ist durch HTTPS abgesichert und berücksichtigt alle Rechte eines Benutzers. Über diese REST API können viele Arbeiten automatisiert werden, die bis jetzt noch manuell ausgeführt werden mussten.

Das neue webbasierte Pflegetool für das Kaskadenmanagement bietet eine benutzerfreundliche und moderne Plattform zur Metadatenpflege, die ohne den TIM Infomanager direkt über den Browser genutzt werden kann. Anwender profitieren von einer intuitiven Bedienung, die es ermöglicht, Metadaten effizient zu pflegen. Zusätzlich bietet das Tool umfassende Export- und Importfunktionen, die den Datenaustausch erleichtern und die Arbeitsprozesse beschleunigen.

Der TIM Review Service wurde erweitert und verbessert, um die Steuerung und Nachverfolgung von Reviews zu vereinfachen. Admin-User haben ab TIM 5.1 den Überblick und somit die vollständige Kontrolle über alle Reviews ihrer Kolleginnen und Kollegen unabhängig davon, wer diese ursprünglich angelegt hat. Nach dem finalen Review können maschinell übersetzte Inhalte mit nur einem Klick als „Nicht maschinell übersetzt“ gekennzeichnet werden. Diese Transformation stellt sicher, dass diese Inhalte in den Pool der freigegebenen Objekte aufgenommen werden und nicht mehr als maschinell übersetzt behandelt werden. Ein neuer Modus ermöglicht es außerdem, während eines laufenden Reviews die Kommentare anderer Reviewer anzuzeigen. Diese Funktion ist optional und unterstützt eine transparente und kollaborative Arbeitsweise.

Eine der wichtigsten Neuerungen in der Version TIM 5.1 ist die Nutzung einer lokal betriebenen KI (Large Language Model). Diese KI ermöglicht es, Texte firmenintern zu generieren und zu übersetzen, ohne dass sensible Daten das interne Netzwerk verlassen. So können Anwender sicher mit der KI kommunizieren. Diese Technologie ist ideal für Unternehmen, die hohe Anforderungen an Datenschutz und Sicherheit stellen und gleichzeitig von den Vorteilen einer leistungsfähigen KI profitieren möchten.

„In die neue Version haben wir das wertvolle Feedback unserer Kunden vom FISCHER INFORMATION SUMMIT 2024 einfließen lassen und ermöglichen nun die Nutzung von lokal betriebenen LLMs“, betont Daniel Brenner, COO der Fischer Information Technology. „Mit TIM 5.1 bieten wir ein noch leistungsfähigeres und benutzerfreundlicheres Redaktionssystem, mit dem alle Anwender ihren Arbeitsalltag in der Technischen Redaktion einfacher, intuitiver und effizienter gestalten können.“

Erstmals vorgestellt wird das Redaktionssystem TIM 5.1 auf der tekom-Jahrestagung 2024 vom 5.-7. November 2024 in Stuttgart. Besuchen Sie uns am Stand 2D04. Weitere Informationen zur neuen Version sowie zu unseren weiteren Produkten und Lösungen finden Sie auf unserer Website unter www.fischer-information.com.

Seit fast 40 Jahren bietet Fischer Information Technology ihren Kunden zukunftsorientierte Softwarelösungen – das Redaktionssystem TIM, das TIM Content Delivery und die Datenmanagementplattform Sherlock – um Unternehmensinformationen durchgängig zu digitalisieren und die digitale Transformation zu meistern – aus diversen Quellen und in jeder Phase der Supply Chain. Fischer Information Technology GmbH hat ihren Sitz in Radolfzell am Bodensee und beschäftigt derzeit ca. 70 Mitarbeiterinnen und Mitarbeiter.

Firmenkontakt
Fischer Information Technology GmbH
Carl Pfeffer
Hauptstraße 30
78315 Radolfzell
+49 77 38 92 94 0
https://www.fischer-information.com/

Pressekontakt
Fischer Information Technology GmbH
Kerstin Schlegel
Hauptstraße 30
78315 Radolfzell
+49 77 38 92 94 35
https://www.fischer-information.com/

Neo4j stellt GraphRAG-Funktionen in Google Cloud vor

Native Integration der Graphdatenbank in die Google Cloud Platform beschleunigt Entwicklung und Deployment von GenAI-Anwendungen

Neo4j stellt GraphRAG-Funktionen in Google Cloud vor

GenAI-Referenzarchitektur mit Google Cloud, VertexAI, Gemini und Neo4j (Bildquelle: Neo4j)

München – 9. April 2024 – Neo4j (https://neo4j.com/), Anbieter von Graphdatenbanken und Graph Analytics, bietet ab sofort die native Integration seiner Graphdatenbank in Google Cloud an. Ziel ist es, die Entwicklung und Bereitstellung von GenAI-Anwendungen zu beschleunigen und bekannte Probleme (z. B. KI-Halluzinationen und steigende Komplexität) zu lösen. Dazu kommt mit GraphRAG eine Form von Retrieval Augmentation Generation (RAG) zum Einsatz.

RAG bezeichnet einen Ansatz, bei dem LLMs mit externen Daten ergänzt werden, um Antworten relevanter, aktueller, nachvollziehbarer und präziser zu machen. Handelt es sich bei dieser Datenquelle um einen Knowledge Graphen spricht man von GraphRAG. Knowledge Graphen erfassen Beziehungen zwischen Entitäten, verankern LLMs innerhalb von Fakten und liefern damit die für GenAI-Anwendungen notwendige Erklärbarkeit, Aktualität, Genauigkeit sowie Kontext für relevante Antworten. Nach Gartner® ist das Zusammenspiel zwischen der Performance großer Sprachmodelle (LLMs) und der „Robustheit“ von Knowledge Graphen entscheidend, um fehlertolerante KI-Anwendungen zu entwickeln*.

GraphRAG mit Neo4j und Google Cloud:
– Schnelles Erstellen von Knowledge Graphen: Entwickler können mit Google Cloud, dem KI-Modell Gemini, VertexAI, LangChain und Neo4j Knowledge Graphen aus unstrukturierten Daten wie PDFs, Webseiten und Dokumenten erstellen – entweder direkt oder geladen aus Google Cloud Storage Buckets.
– Aufnahme, Verarbeitung und Analyse von Echtzeitdaten: Entwicklern stehen Flex Templates in Dataflow zu Verfügung, um wiederholbare, sichere Datenpipelines aufzubauen und Daten über Google BigQuery, Google Cloud Storage und Neo4j einzulesen, zu verarbeiten und zu analysieren. Darüber hinaus werden die Knowledge Graphen so mit Echtzeitdaten versorgt, um Relevanz, Aktualität und Reaktionsfähigkeit von GenAI-Anwendungen sicherzustellen.
– Graphbasierte GenAI-Anwendungen auf Google Cloud: Dank Gemini for Google Workspace und Reasoning Engine von Vertex AI lassen sich GenAI-Anwendungen und APIs auf Google Cloud Run bereitstellen, überwachen und skalieren. Das Gemini KI-Modell wurde auf den Daten von Neo4j trainiert, um beliebige Sprachcode-Schnipsel automatisch in die Abfragesprache Cypher von Neo4j zu verwandeln. Diese Integration ermöglicht eine schnelle, einfache und kollaborative Anwendungs-Entwicklung. Entwickler können Cypher zudem in jeder integrierten Entwicklungsumgebung (IDE) verwenden, die vom Gemini KI-Modell unterstützt wird, was eine effiziente Abfrage und Visualisierung von Graphdaten sicherstellt. Neo4js Vektorsuche, GraphRAG und Conversational-Memory-Funktionen sind nahtlos über LangChain und Neo4j AuraDB (https://neo4j.com/cloud/platform/aura-graph-database/)auf Google Cloud integriert.

Alle neuen Funktionen sind ab sofort in Neo4j für Google Cloud verfügbar. Unternehmen, die strenge Anforderungen hinsichtlich Datenresidenz, Sicherheit und Compliance erfüllen müssen, profitieren von der Google Distribution Cloud (GDC) Hosted. GDC ist eine Air-Gapped Private Cloud-Infrastruktur und Edge-Umgebung, die speziell für Organisationen des öffentlichen Sektors und in regulierten Branchen entwickelt wurde. Neo4j ist der bevorzugte Partner für GDC, um Graphdatenbank- und Analysefunktionen bereitzustellen.

„Die Integration von Neo4j in Google Gloud und die neuen GraphRAG-Funktionen helfen Unternehmen, GenAI schneller in der Praxis einzusetzen und Anwendungen zu entwickeln, die einen echten, produktiven Mehrwert liefern“, erklärt Sudhir Hasbe, Chief Product Officer von Neo4j. „Für uns ist die Integration und die Partnerschaft mit Google Cloud ein weiterer wichtiger Schritt, um die Stärken von Graphtechnologie, GenAI und Cloud-Computing zu bündeln und die Innovationen rund um GenAI weiter voranzutreiben.“

„Generative AI erhöht den Wert, den Kunden aus kritischen Geschäftsdaten ziehen, erheblich“, erklärt Ritika Suri, Director of Technology Partnerships bei Google Cloud. „Durch die Nutzung des Gemini KI-Modells in Google Cloud und Vertex AI kann Neo4j die Geschwindigkeit und Genauigkeit in der Entwicklung von generativer KI steigern.“

Google Cloud und Neo4j verbindet seit 2019 eine strategische Partnerschaft. Erst im April wurde Neo4j zum zweiten Mal in Folge als Google Cloud Technology Partner of the Year in der Kategorie Data Management ausgezeichnet. Neo4j war 2023 zudem der einzige native Graphanbieter, der native Produktintegrationen mit GenAI-Funktionen in Google Cloud Vertex AI einführte. Im vergangenen Jahr integrierte das Unternehmen zudem native Vektorfunktionen als Langzeitspeicher für LLMs in seine Graphdatenbank.

*Gartner “ AI Design Patterns for Knowledge Graphs and Generative AI (https://www.gartner.com/document/4436199?ref=solrAll&refval=403865348&)“ (November 2023)

Weitere Informationen finden Sie im aktuellen Blog (http://www.neo4j.com/blog/graphrag-genai-googlecloud/).

Über Neo4j
Neo4j, der führende Anbieter von Graphdatenbanken und Graph Analytics, hilft Unternehmen, Beziehungen und Muster innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum. Neo4js umfassender Graph Stack bietet leistungsstarke Graph-Datenspeicherung mit nativer Vektorsuche, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Neo4j ist stolz auf seine dynamische Open-Source-Community mit mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten sowie Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs. Besuchen Sie www.neo4j.com.

GARTNER ist eine eingetragene Marke und Dienstleistungsmarke von Gartner, Inc. und/oder seinen Tochtergesellschaften in den USA und international und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten.

©2024 Neo4j, Inc., Neo Technology®, Neo4j®, Cypher®, Neo4j Bloom™, Neo4j Graph Data Science Library™, Neo4j® Aura™, und Neo4j® AuraDB™ sind eingetragene Marken oder eine Marke von Neo4j, Inc. Alle anderen Marken sind Eigentum der jeweiligen Unternehmen.

Firmenkontakt
Neo4j
Neo4j Media Hotline
. .
. .
.
http://neo4j.com/pr

Pressekontakt
Lucy Turpin Communications
Sabine Listl / Kathrin Schirmer
Prinzregentenstr. 89
81675 München
+49 89 417761-16
http://lucyturpin.de

Generative AI: Neue Funktionen von Fivetran auf Amazon S3 machen es möglich

Neuer Delta Lake Support vereinfacht Datenmanagement: Unternehmen haben schnellen Zugriff auf Daten und können diese einfach in Large Language Models (LLM) integrieren

Generative AI: Neue Funktionen von Fivetran auf Amazon S3 machen es möglich

München, 29. November 2023 – Fivetran (https://www.fivetran.com/), der weltweit führende Anbieter von Datenintegration,
präsentiert den Support für Delta Lake auf Amazon Simple Storage Service (Amazon S3). Damit baut Fivetran seine Unterstützung für Amazon S3 als Data Lake Destination weiter aus. Hunderttausende
von Data Lakes laufen bereits heute auf Amazon S3. Der Object Storage Service von Amazon Web Services (AWS) bietet branchenführende Skalierbarkeit, Datenverfügbarkeit, Sicherheit und
Performance. Mit dem weitergehenden Support von Fivetran für Amazon S3 können Fivetran Anwender ihre Daten in Amazon S3 ablegen und einfach auf ihre Delta Lake Tabellen zugreifen.

Data Lakes eignen sich aufgrund ihrer Flexibilität und Skalierbarkeit hervorragend für den Umgang mit großen Mengen an unstrukturierten und semistrukturierten Daten. Die Automatisierung dieses Prozesses von Fivetran verwandelt Data Lakes von traditionell nicht verwalteten Datenspeichern in organisierte, kontrollierte, benutzerfreundliche Repositories. So können Unternehmen schnell auf Daten zugreifen und sie für eine Vielzahl von Anwendungsfällen nutzen: Dazu gehören Predictive Analytics , Generative AI (künstliche Intelligenz), Machine Learning Modelle (ML) und große Sprachmodelle (Large Language Models, LLMs).

Bereits im April 2023 präsentierte Fivetran den Support für Amazon S3 (https://www.fivetran.com/press/fivetran-supports-the-automation-of-the-modern-data-lake-on-amazon-s3)mit Apache Iceberg, einem weiteren führenden Hochleistungsformat, dessen Verfügbarkeit auf der AWS re:Invent 2023 angekündigt wurde.

„Wir sind begeistert, dass wir unseren Kunden die nahtlose Nutzung von Delta Lake auf Amazon S3 ermöglichen können“, sagt Fraser Harris, VP of Product bei Fivetran. „Data Lakes haben sich als
ideale Grundlage für Machine Learning, KI-Projekte sowie für Generative AI erwiesen. Mit dieser Erweiterung vereinfachen wir das Datenmanagement für solche Projekte erheblich.“

Fivetran bietet Data Governance Funktionen, branchenführende Sicherheit und Compliance, Kosteneffizienz und Benutzerfreundlichkeit für den Umgang mit Datenzielen. Die No Code Plattform von Fivetran bietet Unternehmen eine einfache, flexible Möglichkeit, Daten aus nahezu jeder Datenquelle an jede Destination zu übertragen. Unabhängig davon, ob sich Kundendaten in lokalen
Datenbanken, Data Warehouses oder Lakes, Software-as-a-Service (SaaS)-Anwendungen, Dateien oder anderen Quellen befinden, kann Fivetran sie mit einer Up-Time von 99,9 % von einer Quelle zur
anderen verschieben und replizieren. Gängige Anwendungsfälle reichen von der Migration strategischer Daten-Workloads aus einem Cloud-Data-Warehouse in einen Data Lake zur Verwendung bei der KI/ML Modellierung oder dem Aufbau generativer KI-Anwendungen bis hin zur Replikation kompletter lokaler Produktionsdatenbanken in der Cloud – alles unter gleichzeitiger Erfassung der sich ändernden Daten, so dass Cloud-Daten jederzeit synchron gehalten werden.

Fivetran-Kunden vermeiden somit die Komplexität und mangelnde Kontrollmöglichkeiten, die die Einführung eines Data Lake im großen Maßstab sonst erschweren. Die Datenplattform von Fivetran
konvertiert Kundendaten automatisch in das Delta Lake Format und gewährleistet die Datenqualität durch Anonymisierung persönlich identifizierbarer Informationen (PII) sowie durch Bereinigung und
Normalisierung der Daten.

Die über 400 vorgefertigten Konnektoren und die vollständig verwaltete Datenpipeline-Plattform von
Fivetran unterstützen lokale und Cloud-Datenbanken, Data Warehouses, SaaS-Anwendungen, Data Events und Dateien. Auf Wunsch erstellt Fivetran auch benutzerdefinierte Konnektoren. Das heißt unabhängig von der Datenquelle kann Fivetran Unternehmen unterstützen, so dass diese keine wertvollen technischen Ressourcen für die Entwicklung von Konnektoren aufwenden müssen. Mit
diesem breiten Portfolio an Quellenkompatibilität können Kunden ihre Daten im Data Lake vereinheitlichen, unabhängig davon, wo diese sich derzeit befinden.

Erfahren Sie mehr über die Data Lake Destinationen von Fivetran. (https://www.fivetran.com/data-movement/data-lakes-warehouses)

Über Fivetran
Fivetran automatisiert alle Arten von Data Movement im Zusammenhang mit Cloud-Datenplattformen. Das gilt vor allem für die zeitaufwendigsten Teile des ELT-Prozesses (Extract, Load, Transform) – von der Extraktion von Daten über das Handling von Schema-Drifts bis hin zu Daten-Transformationen. Damit können sich Data Engineers auf wichtigere Projekte konzentrieren, ohne sich um die Data Pipelines kümmern zu müssen. Mit einer Up-Time von 99,9 % und sich selbst reparierenden Pipelines ermöglicht Fivetran Hunderten von führenden Marken weltweit, darunter Autodesk, Conde Nast, JetBlue, Lufthansa, Morgan Stanley und Pitney Bowes, datengestützte Entscheidungen zu treffen und so ihr Unternehmenswachstum voranzutreiben. Fivetran hat seinen Hauptsitz in Oakland, Kalifornien, und verfügt über Niederlassungen auf der ganzen Welt.
Der deutschsprachige Markt wird aus dem Büro in München betreut. Zu den Kunden in Deutschland zählen DOUGLAS, Hermes, Lufthansa, Siemens, VW Financial Services und Westwing. Weitere Informationen unter fivetran.com.

Firmenkontakt
Fivetran
Tobias Knieper (Marketing Lead DACH)
Arnulfstraße 122
80636 München
.
https://fivetran.com

Pressekontakt
Lucy Turpin Communications
Christine Schulze & Thomas Hahnel
Prinzregentenstraße 89
81675 München
+49 89 417761- 0

Home