Dein Suchergebnis zum Thema: Model

Meintest du modell?

Partnership for Responsible Battery and Metal Recycling (ProBaMet) | oeko.de

https://www.oeko.de/publikation/partnership-for-responsible-battery-and-metal-recycling-probamet/

Lead-acid batteries continue to serve as a critical energy storage solution in Nigeria and other transitioning economies, driven by expanding vehicle ownership, decentralized energy systems, and emerging technologies. While public and media attention often focuses on Lithium-ion batteries, lead-acid is still the dominating type with continuous growth rates in many world regions especially Africa. However, when the end-of-life management of used lead-acid batteries (ULABs) is done in an improper way, it presents serious environmental and public health risks, with unsound recycling practices significantly contributing to release of hazardous substances and human exposure to lead. There is increasing evidence that lead exposure from unsound battery recycling is a major and often underestimated health risk for the population in low- and middle-income countries.
These insights offer replicable and scalable models for improving ULAB management

Chatbots – universelle Experten oder Risiko für die Nachhaltigkeitstransformation? | oeko.de

https://www.oeko.de/blog/chatbots-universelle-experten-oder-risiko-fuer-die-nachhaltigkeitstransformation/

In unserem Spendenprojekt „Schreiben mit künstlicher Intelligenz – Fakten oder Fiktion? Chancen und Risiken von KI-Sprachmodellen: Wie einfach ist es für Nutzer*innen, verlässliche Informationen zu Klima- und Umweltschutzthemen zu erhalten?“ setzt sich Dr. Peter Gailhofer zum Abschluss mit den Herausforderungen, die KI-Sprachmodelle aus umweltpolitischer Sicht mit sich bringen, auseinander. Er beschreibt Ansätze zur Problemlösung sowie Regulierung.
Das Versprechen universeller Berater Chatbots, die auf Large Language Models (LLM

Mehr als künstliche Sicherheit | oeko.de

https://www.oeko.de/blog/mehr-als-kuenstliche-sicherheit/

Während wir mit Hilfe von künstlicher Intelligenz Texte übersetzen, Bilder generieren oder einfach nur nach Antworten suchen, denkt kaum jemand über die Frage nach, wie sicher KI eigentlich ist. Das liegt sicher auch daran, dass Sicherheitsfragen nur selten diskutiert und adressiert werden. Dr. Heidy Khlaaf, Chief AI Scientist beim The AI Now Institute, befasst sich schon seit vielen Jahren mit Sicherheitsfragen rund um künstliche Intelligenz. Sie sagt: Die Fehleranfälligkeit von KI wird bislang völlig vernachlässigt.
Das Unternehmen trainiert bereits so genannte große Sprachmodelle (Large Language Models