Real
In den Echtzeit-Analysenachrichten dieser Woche: IBM kündigte ein neues generatives KI-gestütztes Produkt an, das eine schnellere Übersetzung von COBOL in Java auf IBM Z ermöglichen soll.
Mit Neuigkeiten und Entwicklungen auf dem Markt für Echtzeitanalysen Schritt zu halten, kann eine gewaltige Aufgabe sein. Wir möchten helfen, indem wir eine Zusammenfassung einiger wichtiger Nachrichten zur Echtzeitanalyse bereitstellen, auf die unsere Mitarbeiter diese Woche gestoßen sind. Hier ist unsere Liste:
IBM kündigte watsonx Code Assistant for Z an, ein generatives KI-gestütztes Produkt, das eine schnellere Übersetzung von COBOL nach Java auf IBM Z ermöglicht und die Entwicklerproduktivität auf der Plattform steigert. Watsonx Code Assistant für Z ist eine neue Ergänzung der watsonx Code Assistant-Produktfamilie, zusammen mit IBM watsonx Code Assistant für Red Hat Ansible Lightspeed, dessen Veröffentlichung noch in diesem Jahr geplant ist. Diese Lösungen werden auf dem watsonx.ai-Codemodell von IBM basieren, das über Kenntnisse in 115 Programmiersprachen verfügt und aus 1,5 Billionen Token gelernt hat. Mit 20 Milliarden Parametern ist es auf dem besten Weg, eines der größten generativen KI-Grundlagenmodelle für die Codeautomatisierung zu werden.
Das Watsonx Code Assistant-Produktportfolio wird im Laufe der Zeit erweitert, um auch andere Programmiersprachen abzudecken, die Amortisierungszeit für Modernisierungen zu verkürzen und wachsende Qualifikationsherausforderungen für Entwickler zu bewältigen. Das Produkt wird im vierten Quartal 2023 allgemein verfügbar sein und soll dazu beitragen, die Modernisierung von COBOL-Anwendungen zu beschleunigen.
VMware machte auf seiner VMware Explore 2023 Las Vegas-Konferenz mehrere Ankündigungen. Viele der Ankündigungen helfen Kunden dabei, ihre Multi-Cloud- und digitale Transformationsreise zu beschleunigen. Zu den relevanten Artikeln für das RTInsights-Publikum gehören:
NVIDIA gab bekannt, dass viele der weltweit führenden Systemhersteller KI-fähige Server liefern werden, die VMware Private AI Foundation mit NVIDIA unterstützen, was separat angekündigt wurde. Die Systeme und Lösungen sollen Unternehmen dabei helfen, generative KI-Anwendungen mithilfe ihrer proprietären Geschäftsdaten anzupassen und bereitzustellen. Die NVIDIA AI-ready-Server umfassen NVIDIA L40S-GPUs, NVIDIA BlueField-3-DPUs und NVIDIA AI Enterprise-Software, um Unternehmen bei der Feinabstimmung generativer KI-Grundlagenmodelle und der Bereitstellung generativer KI-Anwendungen zu unterstützen. Server von Dell Technologies, Hewlett Packard Enterprise und Lenovo werden bis Jahresende verfügbar sein.
AWS kündigte AWS Dedicated Local Zones an. Dedizierte lokale Zonen sind eine Art AWS-Infrastruktur, die vollständig von AWS verwaltet wird, für die ausschließliche Nutzung durch einen Kunden oder eine Community konzipiert und an einem vom Kunden angegebenen Standort oder Rechenzentrum platziert wird, um die Einhaltung gesetzlicher Anforderungen zu unterstützen. Dedizierte lokale Zonen können von lokalen AWS-Mitarbeitern betrieben werden und bieten die gleichen Vorteile wie lokale Zonen, wie Elastizität, Skalierbarkeit und Pay-as-you-go-Preise, mit zusätzlichen Sicherheits- und Governance-Funktionen. Zu diesen Funktionen gehören Datenzugriffsüberwachungs- und Prüfprogramme, Kontrollen zur Beschränkung des Infrastrukturzugriffs auf vom Kunden ausgewählte AWS-Konten sowie Optionen zur Durchsetzung von Sicherheitsfreigaben oder anderen Kriterien für das lokale AWS-Betriebspersonal.
Deloitte kündigte eine Erweiterung der Deloitte AI Academy an, um seinen Fachleuten und Kunden maßgeschneiderte Lehrpläne für generative KI anzubieten. Auf dem Weg zur Ausbildung von bis zu 10.000 Deloitte-Praktikern entwickelt die AI Academy gemeinsam mit großen Universitäten und Technologieinstituten in den USA und Indien, darunter Virginia Tech und dem Indian Institute of Technology Roorkee, einen Lehrplan.
Luftaustausch kündigte an, dass die Airbyte API und der Terraform Provider nun für Benutzer von Airbyte Open Source sowie von Airbyte Self-Managed-Bereitstellungen kostenlos verfügbar sind. Außerdem ist Airbyte jetzt im HashiCorp-Partnerprogramm. Bisher ausschließlich in der Airbyte Cloud verfügbar, sind Airbyte API und Terraform Provider jetzt für alle Airbyte-Benutzer zugänglich und ermöglichen die programmgesteuerte Verwaltung von Airbyte-Ressourcen – wodurch Arbeitsabläufe optimiert und Airbyte-Konfigurationen in die vorhandene Dateninfrastruktur integriert werden.
Anakondakündigte die Beta-Verfügbarkeit der Anaconda-Distribution für Python in Excel an, einer neuen Integration mitMicrosoft Excel. Die Python-Distribution von Anaconda ist vollständig eingebettet und in die Excel-Raster-Toolboxen integriert, um Daten zu bearbeiten, zu analysieren und zu visualisieren sowie für fortgeschrittenes maschinelles Lernen und KI. Python in Excel wird derzeit in der öffentlichen Vorschau eingeführt und ist für Microsoft Insider verfügbar.
Appen Limited kündigte die Einführung von zwei neuen Produkten an, die es Kunden ermöglichen werden, leistungsstarke Large Language Models (LLMs) einzuführen. Bei den Lösungen handelt es sich um KI-Chat-Feedback, das Fachexperten in die Lage versetzt, ein mehrstufiges Live-Gespräch zu bewerten und jede Antwort zu überprüfen, zu bewerten und neu zu formulieren; und Benchmarking, eine Lösung, die Kunden dabei helfen soll, die Modellleistung in verschiedenen Dimensionen wie Modellgenauigkeit, Toxizität usw. zu bewerten.
Appian kündigte die sofortige Verfügbarkeit der neuesten Version der Appian AI-Powered Process Platform mit Appian AI Copilot an, einem fortschrittlichen KI-Assistenten, der die Entwicklerproduktivität steigert. In seiner ersten Version nutzt AI Copilot generative KI, um PDF- und andere strukturierte Formulare schnell in intuitive digitale Schnittstellen umzuwandeln, die großartige Benutzererlebnisse unterstützen. AI Copilot übernimmt die mühsame Arbeit der Digitalisierung von PDF-Formularen in interaktive Geschäftsanwendungen und ermöglicht Entwicklern die Verwendung von Low-Code-Designtools zur Verfeinerung und Perfektionierung von Anwendungen.
Kettenschutz kündigte ein neues Chainguard Images AI-Paket an, das eine umfassende Sammlung von Bildern für Phasen im KI-Workload-Lebenszyklus umfassen wird, von Entwicklungsbildern über Workflow-Management-Tools bis hin zu Vektordatenbanken für die Produktionsspeicherung. Wie bei den vorherigen Images enthalten die neuen wichtige Sicherheitsfunktionen für die Software-Lieferkette wie Softwaresignaturen, SBOMs und CVE-Behebung.
dotData stellte dotData Ops vor, eine No-Code-MLOps-Plattform der nächsten Generation. Es unterstützt BI- und Analyseexperten oder ML-Ingenieure durch die Bereitstellung einer intuitiven Self-Service-Umgebung für die effiziente Bereitstellung und Operationalisierung von Daten-, Funktions- und Vorhersagepipelines. dotData Ops unterscheidet sich von herkömmlichen MLOps-Lösungen durch die Verwaltung und Optimierung von Pipelines für Daten- und Funktionstransformationen sowie ML-Bewertungsmodelle.
Fauna kündigte die allgemeine Verfügbarkeit ihrer neuen, von TypeScript inspirierten Datenbanksprache, neue Web- und lokale Entwicklungserfahrungen sowie die Hinzufügung eines deklarativen Datenbankschemas an. Die neue Datenbanksprache und Entwicklererfahrung entfesselt die Leistungsfähigkeit der branchenführenden verteilten, dokumentenrelationalen Datenbank von Fauna. Zusammengenommen bieten diese neuen Funktionen ein erstklassiges Softwareentwicklungserlebnis für Teams, die neue und bestehende Anwendungen erstellen und skalieren.
Gupshup kündigte die Einführung von ACE LLM an, einer Familie domänenspezifischer Large Language Models, die auf Funktionen wie Marketing, Handel, Support, HR und IT sowie Branchen wie Banken, Einzelhandel, Versorgungsunternehmen und mehr spezialisiert sind. Basierend auf Basismodellen wie Metas Llama 2, OpenAI GPT-3.5 Turbo, Mosaic MPT, Flan T-5 und anderen wurde ACE LLM sorgfältig an bestimmte Branchen und Funktionen angepasst und ist außerdem mit Sicherheitskontrollen und Leitplanken der Enterprise-Klasse ausgestattet .
Neo4j gab bekannt, dass es die native Vektorsuche als Teil seiner zentralen Datenbankfunktionen integriert hat. Mit der Graphdatenbank von Neo4j können Wissensgraphen erstellt werden, die explizite Beziehungen zwischen Entitäten erfassen und verbinden und es KI-Systemen ermöglichen, relevante Informationen effektiv zu begründen, abzuleiten und abzurufen. Das Ergebnis sorgt für genauere, erklärbare und transparentere Ergebnisse für LLMs und andere generative KI-Anwendungen.
Neues Relikt gab bekannt, dass es seine AIOps-Funktionen mit empfohlenen Warnungen weiter verbessert hat. Unterstützt durch AIOps optimiert New Relic die Warnmeldungen mit der Funktion „Lücken bei der Warnmeldungsabdeckung“, die kontinuierlich und automatisch Bereiche im Technologie-Stack eines Unternehmens hervorhebt, in denen die Warnmeldungsabdeckung bei Application Performance Monitoring (APM), mobilen und Browser-Entitäten fehlt.
Renishaw kündigte seine neue zentrale Fertigungskonnektivitäts- und Datenplattform an, eine datengesteuerte Fertigungslösung, die die Leistungsfähigkeit der Konnektivität in die Maschinenwerkstatt bringt. Renishaw Central sammelt Mess-, Status- und Alarmdaten von angeschlossenen Geräten, einschließlich additiver Fertigungssysteme (AM), On-Machine-Messsystemen, Werkstattmessungen und Koordinatenmessgeräten (CMMs). Durch den Einblick in die Prozessleistung jeder Arbeitsstation können Hersteller besser verstehen, wo Korrekturmaßnahmen ergriffen werden müssen.
ScyllaDB gab die allgemeine Verfügbarkeit von ScyllaDB 2023.1 bekannt. Diese neue Unternehmensversion führt eine Raft-basierte, stark konsistente Schemaverwaltung, verteilte Aggregate, die die Abfrageausführungszeit um das bis zu 20-fache reduzieren, und zahlreiche andere Funktionen ein, die die Leistung von ScyllaDB im großen Maßstab weiter verbessern. Mit der Raft-basierten Schemaverwaltung wird es sicher, gleichzeitig Schemaänderungsanweisungen auszuführen. Außerdem wurde eine neue Change Data Capture-Bibliothek für Rust veröffentlicht, die das Echtzeit-Streaming von ScyllaDB beschleunigt und gleichzeitig weniger Infrastruktur erfordert.
Altairgab bekannt, dass Altair SLC jetzt verfügbar istGoogle Cloud Marketplace . Altair SLC ist eine alternative SAS-Sprachumgebung, die keine Middleware von Drittanbietern benötigt, um Anwendungen zu verarbeiten, die die SAS-Sprache enthalten. Unternehmenskunden des Google Cloud Marketplace können jetzt auf Altair SLC zugreifen, ohne dass eine zusätzliche Budgetbegründung oder eine Genehmigung des Anbieters erforderlich ist.
Arcionkündigte neue Anschlüsse für anOrakel und MySQL, die einen höheren Durchsatz bieten. Darüber hinaus kündigte das Unternehmen einen nativen Connector für anSchneeflocke . Mit dem neuen Snowflake-Connector von Arcion können Unternehmen in Snowflake gespeicherte Daten nahtlos auf jede Plattform replizieren. Arcion hat außerdem Online-Schema-Änderungsunterstützung für alle seine OLTP-Konnektoren hinzugefügt, um sicherzustellen, dass es bei Änderungen von Datenbankschemata zu keinen Pipeline-Ausfällen kommt.
Kontextuelle KIkündigte eine strategische Partnerschaft mit anGoogle Cloud als bevorzugter Cloud-Anbieter für den Aufbau, Betrieb und die Skalierung seines Geschäfts sowie für die Schulung seiner großen Sprachmodelle (LLMs) für das Unternehmen. Das Unternehmen entschied sich für Google Cloud aufgrund seiner Führungsrolle und seines offenen Ansatzes für generative KI sowie der Vollständigkeit seiner speziell für KI/ML entwickelten Recheninfrastruktur.
Datometriekündigte die Verfügbarkeit von Datometry Hyper-Q für anDatensteineauf den Amazon Web Services (AWS ) Cloud-Plattform. Datometry Hyper-Q für Databricks sorgt dafür, dass vorhandene Anwendungen unverändert mit Databricks funktionieren, ohne dass sie neu geschrieben oder geändert werden müssen. Jetzt können Kunden, einschließlich derjenigen, die Teradata Vantage auf AWS und Oracle RDS nutzen, ihre Workloads direkt auf Databricks in AWS ausführen.
HCLSoftwareUndGoogle Cloud haben eine strategische Zusammenarbeit angekündigt, die es HCLSoftware ermöglichen wird, die generativen KI-Lösungen von Google Cloud in seine Softwareprodukte zu integrieren und Kunden Zugriff auf die führenden KI-Funktionen und fortschrittlichen großen Sprachmodelle von Google Cloud zu ermöglichen. Durch die Kombination der Expertise von HCLSoftware in Softwareentwicklung und KI mit den hochmodernen KI-Technologien von Google Cloud wollen die beiden Unternehmen eine neue Generation intelligenter Geschäftsanwendungen schaffen, die Branchen verändern, Geschäftsprozesse verbessern und die Arbeitsweise von Organisationen verbessern können.
LenovoUndVMware kündigte die ersten Lösungen aus ihren gemeinsamen Edge- und Cloud-Innovationslaboren an, die moderne Hybrid-Multi-Cloud-Funktionen für mittelständische Unternehmen bereitstellen und Kunden dabei helfen, Daten einfacher zu nutzen, um ihre intelligente Transformation voranzutreiben. Lenovo stellte in Zusammenarbeit mit VMware außerdem sein neuestes Referenzdesign für generative KI vor, eine vollständig integrierte Lenovo ThinkSystem-Lösung mit NVIDIA-beschleunigtem Computing und Software, die speziell dafür entwickelt wurde, Unternehmen bei der Implementierung von KI zu unterstützen.
MosaikMLausgewähltOracle Cloud-Infrastruktur (OCI) als bevorzugte Cloud-Infrastruktur, um Unternehmen dabei zu helfen, mehr Wert aus ihren Daten zu ziehen. Mit OCI konnte MosaicML Zugriff auf die neuesten NVIDIA-GPUs, eine Verbindung mit sehr hoher Bandbreite zwischen Knoten und große Rechenblockgrößen für die Skalierung auf Tausende von GPUs erhalten. Dies hat es MosaicML ermöglicht, Unternehmen und Start-ups bei der Operationalisierung von KI-Modellen zu unterstützen.
OpenTextkündigte eine Erweiterung seiner Partnerschaft mit anGoogle Cloud Bereitstellung KI-gestützter Integrationen, die Unternehmen dabei helfen, das Potenzial ihrer Daten in Google Cloud voll auszuschöpfen. Die gemeinsame Innovation der Informationsmanagementlösungen von OpenText und der KI-Funktionen von Google Cloud wird die Art und Weise beschleunigen, wie Unternehmen jeder Größe schnell Erkenntnisse gewinnen, die Produktivität steigern und das Kundenerlebnis verändern.
Wenn Ihr Unternehmen über Echtzeit-Analysenachrichten verfügt, senden Sie Ihre Ankündigungen an [email protected].
Falls Sie es verpasst haben, finden Sie hier unsere aktuellsten Zusammenfassungen der wöchentlichen Echtzeitanalyse-Nachrichten:
In den Echtzeit-Analysenachrichten dieser Woche: IBM kündigte ein neues generatives KI-gestütztes Produkt an, das eine schnellere Übersetzung von COBOL in Java auf IBM Z ermöglichen soll.
IBMVMwareNVIDIAAWSDeloitteLuftaustauschAnakondaMicrosoftAppen LimitedAppianKettenschutzdotDataFaunaGupshupNeo4jNeues ReliktRenishawScyllaDBAltairGoogle Cloud MarketplaceArcionOrakelSchneeflockeKontextuelle KIGoogle CloudDatometrieDatensteineAWSHCLSoftwareGoogle CloudLenovoVMwareMosaikMLOracle Cloud-InfrastrukturOpenTextGoogle CloudFalls Sie es verpasst haben, finden Sie hier unsere aktuellsten Zusammenfassungen der wöchentlichen Echtzeitanalyse-Nachrichten:Echtzeit-Analytics-News für die Woche bis zum 19. AugustEchtzeit-Analysenachrichten für die Woche bis zum 12. AugustEchtzeit-Analytics-News für die Woche bis zum 5. AugustEchtzeit-Analysenachrichten für die Woche bis zum 29. JuliEchtzeit-Analysenachrichten für die Woche bis zum 22. JuliEchtzeit-Analysenachrichten für die Woche bis zum 15. Juli