Stel jy belang in hulle KWOTASIE? Bespaar met ons koepons aan WhatsApp o TELEGRAM!

OpenAI skep span vir KI 'katastrofiese' risiko's. Dit is hoekom dit ons bekommer

OpenAI, 'n maatskappy wat nou aan die voorpunt van die veld van kunsmatige intelligensie is, onlangs aangekondig die skepping van 'n nuwe span met die spesifieke taak om evalueer en versag potensieel katastrofiese risiko's wat verband hou met die bevordering van KI-verwante tegnologieë. Hierdie stap beklemtoon die toenemende belangrikheid daarvan om die uitdagings en gevare wat generatiewe modelle kan meebring proaktief aan te spreek. Natuurlik, waar hulle nie behoorlik gemonitor word nie.

Risiko-identifikasie deur OpenAI

Soos kunsmatige intelligensie vinnig ontwikkel, kom nuwe risiko's na vore wat ernstige impakte op 'n wêreldwye skaal kan hê. Hiervoor sal die nuwe OpenAI-voorbereidingspan hom daaraan toewy op te spoor, om te evalueer, voorsien e proteggere teen hierdie potensiële probleme. Onder die risiko's wat geïdentifiseer is, is: bedreigings kernkrag, 'n tema wat die dringendheid van verantwoordelike optrede op die gebied van KI beklemtoon.

Benewens kernbedreigings, sal die span ook fokus op middelverwante gevare chemies, biologies en radiologies, asook op fverskynsel van selfreplisering van kunsmatige intelligensie, of die vermoë van 'n kunsmatige intelligensiestelsel om homself outonoom te repliseer. Ander fokusareas sluit in KI se vermoë om mense te mislei en bedreigings het cyber.

Voordele en uitdagings van gevorderde KI

OpenAI erken dat grens-KI-modelle, dié wat die vermoëns van die mees gevorderde bestaande modelle oortref, die potensiaal het om die hele mensdom bevoordeel. En nee, in teenstelling met wat jy dink, dieKunsmatige intelligensie is nie hier om ons werk te steel nie maar eerder, om dit te skep.

Met groot krag kom egter ook groot verantwoordelikheid. Dit is dus noodsaaklik om te ontwikkel beleide ingelig oor die risiko's, wat jou toelaat om KI-modelle te evalueer en te monitor, om te verseker dat die voordele swaarder weeg as die gepaardgaande risiko's.

openai bied belonings aan diegene wat foute in chatgpt vind

Lees ook: DeepMind het die oplossing om KI-risiko's te voorkom

Die leierskap van hierdie nuwe span is toevertrou aan Alexander Madry, 'n leidende figuur op die gebied van masjienleer. Tans met verlof van syne rol van direkteur van MIT se sentrum vir ontplooibare masjienleer, Wys sal pogings koördineer om 'n risiko-ingeligte ontwikkelingsbeleid te ontwikkel en in stand te hou.

Op pad na 'n globale prioriteit

Die HUB van OpenAI, Sam Altman, dit is nie nuut nie tot kommer oor die potensieel katastrofiese risiko's van KI. Hy het voorgestel dat die behandeling van KI-tegnologie blso ernstig opgeneem as dié van kernwapens, wat die behoefte aan 'n kollektiewe poging beklemtoon om die uitwissingsrisiko's wat met KI verband hou, te versag. Hierdie nuwe span verteenwoordig 'n konkrete stap om hierdie visie te verwesenlik, en beklemtoon OpenAI se verbintenis om by te dra tot 'n verantwoordelike bestuur van Kunsmatige Intelligensie.

Gianluca Cobucci
Gianluca Cobucci

Passievol oor kode, tale en tale, mens-masjien-koppelvlakke. Alles wat tegnologiese evolusie behels, is vir my van belang. Ek probeer my passie met die grootste duidelikheid versprei, en vertrou op betroubare bronne en nie "net die eerste een wat saamkom nie".

Betaal
Stel my in kennis
gas

0 kommentaar
Inlynterugvoer
Bekyk alle kommentaar
XiaomiToday.it
logo