OpenAI, 'n maatskappy wat nou aan die voorpunt van die veld van kunsmatige intelligensie is, onlangs aangekondig die skepping van 'n nuwe span met die spesifieke taak om evalueer en versag potensieel katastrofiese risiko's wat verband hou met die bevordering van KI-verwante tegnologieë. Hierdie stap beklemtoon die toenemende belangrikheid daarvan om die uitdagings en gevare wat generatiewe modelle kan meebring proaktief aan te spreek. Natuurlik, waar hulle nie behoorlik gemonitor word nie.
Onderwerpe van hierdie artikel:
Risiko-identifikasie deur OpenAI
Soos kunsmatige intelligensie vinnig ontwikkel, kom nuwe risiko's na vore wat ernstige impakte op 'n wêreldwye skaal kan hê. Hiervoor sal die nuwe OpenAI-voorbereidingspan hom daaraan toewy op te spoor, om te evalueer, voorsien e proteggere teen hierdie potensiële probleme. Onder die risiko's wat geïdentifiseer is, is: bedreigings kernkrag, 'n tema wat die dringendheid van verantwoordelike optrede op die gebied van KI beklemtoon.
Benewens kernbedreigings, sal die span ook fokus op middelverwante gevare chemies, biologies en radiologies, asook op fverskynsel van selfreplisering van kunsmatige intelligensie, of die vermoë van 'n kunsmatige intelligensiestelsel om homself outonoom te repliseer. Ander fokusareas sluit in KI se vermoë om mense te mislei en bedreigings het cyber.
Voordele en uitdagings van gevorderde KI
OpenAI erken dat grens-KI-modelle, dié wat die vermoëns van die mees gevorderde bestaande modelle oortref, die potensiaal het om die hele mensdom bevoordeel. En nee, in teenstelling met wat jy dink, dieKunsmatige intelligensie is nie hier om ons werk te steel nie maar eerder, om dit te skep.
Met groot krag kom egter ook groot verantwoordelikheid. Dit is dus noodsaaklik om te ontwikkel beleide ingelig oor die risiko's, wat jou toelaat om KI-modelle te evalueer en te monitor, om te verseker dat die voordele swaarder weeg as die gepaardgaande risiko's.
Lees ook: DeepMind het die oplossing om KI-risiko's te voorkom
Die leierskap van hierdie nuwe span is toevertrou aan Alexander Madry, 'n leidende figuur op die gebied van masjienleer. Tans met verlof van syne rol van direkteur van MIT se sentrum vir ontplooibare masjienleer, Wys sal pogings koördineer om 'n risiko-ingeligte ontwikkelingsbeleid te ontwikkel en in stand te hou.
Op pad na 'n globale prioriteit
Die HUB van OpenAI, Sam Altman, dit is nie nuut nie tot kommer oor die potensieel katastrofiese risiko's van KI. Hy het voorgestel dat die behandeling van KI-tegnologie blso ernstig opgeneem as dié van kernwapens, wat die behoefte aan 'n kollektiewe poging beklemtoon om die uitwissingsrisiko's wat met KI verband hou, te versag. Hierdie nuwe span verteenwoordig 'n konkrete stap om hierdie visie te verwesenlik, en beklemtoon OpenAI se verbintenis om by te dra tot 'n verantwoordelike bestuur van Kunsmatige Intelligensie.