El Terminator de Skynet sentado en el despacho oval

Nace Skynet y Biden es su padre

La Admi­nis­tra­ción Biden ha dado un paso monu­men­tal en la regu­la­ción y super­vi­sión de la Inte­li­gen­cia Arti­fi­cial (IA), pre­sen­tan­do una orden eje­cu­ti­va que esta­ble­ce nue­vos están­da­res y medi­das para garan­ti­zar la segu­ri­dad, con­fia­bi­li­dad y pro­tec­ción con­tra ses­gos invo­lun­ta­rios en el desa­rro­llo y uso de sis­te­mas de IA. En un esfuer­zo por fre­nar posi­bles daños, espe­cial­men­te en los avan­ces tec­no­ló­gi­cos emer­gen­tes, esta orden se des­glo­sa en ocho cate­go­rías con un enfo­que mul­ti­fa­cé­ti­co y proac­ti­vo.

Las accio­nes cla­ve giran en torno a diver­sos aspec­tos. Por un lado, se bus­ca impo­ner a las prin­ci­pa­les com­pa­ñías de IA la obli­ga­ción de com­par­tir los resul­ta­dos de sus prue­bas de segu­ri­dad con el gobierno, enfa­ti­zan­do el desa­rro­llo de nue­vas herra­mien­tas para ase­gu­rar que los sis­te­mas de IA sean segu­ros y libres de ses­gos. Se habla de “cero defec­tos”, pero ojo, sea­mos rea­lis­tas, no esta­mos hablan­do de pro­gra­ma­ción per­fec­ta, sino de redu­cir ries­gos lo máxi­mo posi­ble. No espe­re­mos que los robots sean per­fec­tos, pero sí que hagan su tra­ba­jo sin gene­rar caos.

La cola­bo­ra­ción entre agen­cias guber­na­men­ta­les y la indus­tria pri­va­da es vital en este pro­ce­so. En esta inter­ac­ción, se pre­vé que el Ins­ti­tu­to Nacio­nal de Están­da­res y Segu­ri­dad (NIST) jue­gue un papel cru­cial en el esta­ble­ci­mien­to de pau­tas de segu­ri­dad y prue­bas de mode­los de IA. Es como cer­ti­fi­car la cali­dad de un pro­duc­to antes de lan­zar­lo al mer­ca­do, solo que aquí esta­mos hablan­do de sis­te­mas com­ple­jos que pue­den tener un gran impac­to en la socie­dad.

El desa­fío no solo radi­ca en la segu­ri­dad, sino tam­bién en la éti­ca. No se tra­ta solo de cons­truir un robot bien arma­do, sino de garan­ti­zar que no come­ta injus­ti­cias o dis­cri­mi­na­cio­nes invo­lun­ta­rias. El uso de IA en el sis­te­ma penal y otras áreas está bajo la lupa, con el obje­ti­vo de esta­ble­cer prác­ti­cas jus­tas y trans­pa­ren­tes. Esta­mos hablan­do de dar­le un giro éti­co al uso de tec­no­lo­gías que podrían influir en aspec­tos tan deli­ca­dos como la liber­tad con­di­cio­nal o la vigi­lan­cia poli­cial.

La reco­pi­la­ción y el uso de datos en el entre­na­mien­to de estos sis­te­mas tam­bién está sien­do obje­to de regu­la­ción. Aquí la idea es tener cui­da­do con la infor­ma­ción que ali­men­ta a estas super­men­tes elec­tró­ni­cas. Los datos que usan estas IAs para apren­der son vita­les, pero debe­mos estar segu­ros de que pro­vie­nen de fuen­tes con­fia­bles. No que­re­mos que nues­tras IAs apren­dan de fuen­tes dudo­sas, ¿ver­dad?

Esta orden lle­ga des­pués de com­pro­mi­sos volun­ta­rios pre­vios de gigan­tes tec­no­ló­gi­cos, que equi­va­len a una espe­cie de “auto­rre­gu­la­ción” que aho­ra se ve refor­za­da por una regu­la­ción más con­tun­den­te por par­te del gobierno. La orden eje­cu­ti­va es una mane­ra de tomar un rol más acti­vo en la super­vi­sión de estas tec­no­lo­gías, aun­que toda­vía exis­te una incer­ti­dum­bre sobre cómo se apli­ca­rán y san­cio­na­rán las fal­tas a estas regu­la­cio­nes. ¿Habrá mul­tas? ¿Sus­pen­sio­nes? Toda­vía no tene­mos cla­ro cómo se lle­va­rá a cabo este papel de “poli­cía” guber­na­men­tal en este mun­do de inte­li­gen­cia arti­fi­cial.

A pesar de estas dudas, la Casa Blan­ca está con­ven­ci­da de que esta orden mar­ca un hito impor­tan­te en el esta­ble­ci­mien­to de medi­das para ase­gu­rar la segu­ri­dad y con­fian­za en la IA. No es algo sen­ci­llo, ya que esta­mos hablan­do de un mun­do en cons­tan­te evo­lu­ción, don­de la tec­no­lo­gía avan­za a pasos agi­gan­ta­dos. Esto es como poner­le un lími­te a un niño en un par­que de atrac­cio­nes. No que­re­mos limi­tar la diver­sión, pero sí ase­gu­rar­nos de que sea segu­ra para todos.

La Admi­nis­tra­ción Biden está abor­dan­do un asun­to espi­no­so que afec­ta tan­to a las gran­des empre­sas de tec­no­lo­gía como a la socie­dad en gene­ral. La IA es un cam­po suma­men­te pro­me­te­dor, pero tam­bién pue­de ser un terreno peli­gro­so si no se mane­ja con pre­cau­ción. Esta orden bus­ca no fre­nar la inno­va­ción, sino guiar­la por un camino segu­ro y éti­co. Es un poco como dar­le rien­das a un caba­llo des­bo­ca­do, nece­si­ta­mos con­trol sin anu­lar su ener­gía.

Vamos que segun la Casa Blan­ca, esta orden es un paso ade­lan­te en la regu­la­ción y super­vi­sión de la IA, esta­ble­cien­do un mar­co de refe­ren­cia más fuer­te y deta­lla­do. Sin embar­go, que­da por ver cómo se imple­men­ta­rán y eje­cu­ta­rán estas direc­tri­ces, pero su impor­tan­cia radi­ca en que repre­sen­tan uno de los movi­mien­tos más sig­ni­fi­ca­ti­vos en mate­ria de regu­la­ción de la IA has­ta la fecha.

Pue­de que Sky­net haya naci­do… ya vere­mos

Deja una respuesta