Meta restrukturiert sein „Responsible AI“-Team und spiegelt damit einen strategischen Wandel in seinem Ansatz zur Entwicklung künstlicher Intelligenz wider. Der Schritt, über den The Information erstmals berichtete, scheint einen verteilten Ansatz in einer turbulenten Landschaft zu verfolgen, in der die Rolle der KI in der Gesellschaft zunehmend hinterfragt wird.
Meta teilte der Nachrichtenagentur mit, dass es die Mitglieder seines Responsible AI-Teams in separate Abteilungen im gesamten Unternehmen integriert. Ein Sprecher von Meta sagte, dass diese Entscheidung Überlegungen zur KI-Sicherheit direkter in die Entwicklung von Kernprodukten und -technologien einbeziehen werde.
Die Auswirkungen der generativen KI haben weltweit Alarm ausgelöst, von Menschen, die sich Sorgen über den Mangel an Privatsphäre machen, bis hin zu Führungskräften, die sich Sorgen über eine mögliche KI-Apokalypse machen.
Meta versicherte, dass die Entscheidung, sein Responsible AI-Team aufzulösen, nicht unbedingt bedeute, dass das Unternehmen KI nicht verantwortungsvoll entwickeln wolle.
„Wir legen weiterhin Prioritäten und investieren in eine sichere und verantwortungsvolle KI-Entwicklung“, sagte ein Sprecher. Der Schritt scheint dazu zu führen, dass die Bemühungen ausgeweitet werden, statt dass es eine zentralisierte Stelle gibt, die die Ethik bei der KI-Entwicklung überwacht.
David Evan Harris, ein ehemaliger Forscher bei Meta, warnt vor einem möglichen Missbrauch von KI-Technologien.
„Nachdem ich im Team für bürgerliche Integrität bei Facebook gearbeitet hatte, leitete ich Forschungsteams, die sich mit verantwortungsvoller KI beschäftigten, die potenziellen Schäden der KI aufzeichneten und nach Möglichkeiten suchten, sie sicherer und gerechter für die Gesellschaft zu machen“, sagte David in einem veröffentlichten Meinungsbeitrag Der Wächter im Juni. „Ich habe gesehen, wie die eigenen KI-Systeme meines Arbeitgebers Diskriminierung im Wohnungswesen erleichtern, rassistische Assoziationen schaffen und Frauen davon abhalten können, Stellenangebote für Männer sichtbar zu sehen.“
Er warnt auch vor den Gefahren von Deepfakes und sogar vor der Möglichkeit, dass Open-Source-LLMs von böswilligen Akteuren zur Verbreitung von Fehlinformationen genutzt werden. Die Aufgabe des nun aufgelösten Teams bestand darin, zu verhindern, dass solche Dinge passieren.
Diese Umstrukturierung fällt mit der Initiative des Unternehmens zusammen, die Abläufe im Rahmen seines „Jahres der Effizienz“, wie CEO Mark Zuckerberg es nennt, zu rationalisieren. Der Schritt wird als Reaktion auf die zunehmende Bedeutung generativer KI-Tools im Technologiebereich gesehen, einem Sektor, in den Meta stark investiert hat.
Meta hat kürzlich generative KI-Tools für Werbetreibende eingeführt und damit sein Engagement für KI-gesteuerte Lösungen unter Beweis gestellt. Zu seinem Portfolio gehören das äußerst beliebte Open-Source-Großsprachenmodell „Llama 2“, ein Text-zu-Video-Generator, ein Inpaint-Tool und ein brandneuer KI-Assistent – zusammen mit Gerüchten über ein bevorstehendes Llama 3 im nächsten Jahr.
Die Branche hat in letzter Zeit bedeutende Entwicklungen erlebt, darunter den Rücktritt von Sam Altman als CEO von OpenAI. Der Vorstand, der sich darauf konzentrierte, die Mission des Unternehmens mit der Sicherheit und Ausrichtung der KI in Einklang zu bringen, war der Ansicht, dass OpenAI-Chefwissenschaftler Ilya Sutskever eine entscheidende Rolle bei der Umstellung spielte. Branchenbeobachter vermuteten einen Konflikt zwischen Leuten, die die KI-Entwicklung verlangsamen wollen, sogenannte „Decels“, und denen, die schneller vorankommen wollen.
Obwohl Emmet Shear, der neue Interims-CEO von OpenAI, geklärt dass „der Vorstand Sam nicht wegen spezifischer Meinungsverschiedenheiten in Bezug auf Sicherheit entlassen hat“, bleiben Spekulationen darüber bestehen, wie groß die Besorgnis der Verantwortlichen hinsichtlich Ausrichtung und Sicherheit ist.