{"id":3190,"date":"2024-02-28T10:34:24","date_gmt":"2024-02-28T08:34:24","guid":{"rendered":"https:\/\/igualdadenlaempresaaragon.es\/?p=3190"},"modified":"2024-02-28T10:34:24","modified_gmt":"2024-02-28T08:34:24","slug":"impulsando-la-equidad-de-genero-en-la-era-de-la-inteligencia-artificial-desafios-y-soluciones","status":"publish","type":"post","link":"https:\/\/igualdadenlaempresaaragon.es\/?p=3190","title":{"rendered":"\u00abImpulsando la Equidad de G\u00e9nero en la Era de la Inteligencia Artificial: Desaf\u00edos y Soluciones\u00bb"},"content":{"rendered":"\r\n<p><span style=\"color: #000000;\">Los<\/span> a<span style=\"color: #000000;\">lgoritmos de inteligencia artificial (IA) est\u00e1n impregnados de sesgos de g\u00e9nero que afectan negativamente a las mujeres en el \u00e1mbito laboral y econ\u00f3mico. En el a\u00f1o 2021, se observ\u00f3 que el 80% de los reci\u00e9n graduados en doctorados relacionados con la IA eran hombres, evidenciando una clara desigualdad de g\u00e9nero en este campo. A pesar de que la IA est\u00e1 revolucionando diversos aspectos de nuestra sociedad, como<strong> la econom\u00eda, la salud, el empleo y las relaciones sociales,<\/strong> los algoritmos que la sustentan no est\u00e1n exentos de los sesgos presentes en la sociedad, incluidos los de g\u00e9nero. La regulaci\u00f3n de estas nuevas tecnolog\u00edas, especialmente la IA generativa, es a\u00fan insuficiente.<\/span><br \/><br \/><span style=\"color: #000000;\">La soluci\u00f3n no solo radica en corregir los sesgos de g\u00e9nero en los algoritmos, sino en desarrollar tecnolog\u00eda que sea<\/span> <span style=\"color: #000000;\">inclusiva y representativa de toda la sociedad. Ejemplo de ello es la evoluci\u00f3n de ChatGPT, que ha sido ajustado para promover la igualdad de g\u00e9nero y evitar estereotipos y discriminaci\u00f3n, reflejando un avance hacia la justicia algor\u00edtmica.<\/span><\/p>\r\n<p><span style=\"color: #000000;\">El origen de los sesgos machistas en la IA radica en su entrenamiento con datos previamente generados por humanos, que suelen ser sesgados hacia los hombres. Idoia Salazar, presidenta del Observatorio del Impacto \u00c9tico y Social de la IA (OdiseIA), explica que si se entrena a la IA con m\u00e1s datos de hombres que de mujeres, el sistema asumir\u00e1 err\u00f3neamente que los hombres son mejores candidatos para ciertos <strong>puestos de trabajo.<\/strong> Este problema subyace en la calidad de los datos proporcionados para el aprendizaje de la IA, lo que refleja una necesidad cr\u00edtica de asegurar que los datos sean representativos de toda la sociedad.<\/span><\/p>\r\n<p><span style=\"color: #000000;\">En un mundo cada vez m\u00e1s influenciado por la inteligencia artificial (IA), emerge un desaf\u00edo crucial: <strong>la prevalencia de sesgos de g\u00e9nero en los algoritmos, que impactan negativamente en las mujeres en \u00e1mbitos laborales y econ\u00f3micos.<\/strong> \u00a0<\/span><\/p>\r\n<p><span style=\"color: #000000;\">A pesar de estos desaf\u00edos, <strong>existen iniciativas como Blindstairs, que utilizan la IA para combatir los sesgos en la selecci\u00f3n de personal, y Themis, un software que promueve el uso de un lenguaje inclusivo<\/strong>. Estos ejemplos demuestran el potencial de la tecnolog\u00eda para avanzar hacia una sociedad m\u00e1s igualitaria y diversa, aunque todav\u00eda queda un largo camino por recorrer para integrar plenamente la perspectiva de g\u00e9nero en el desarrollo tecnol\u00f3gico<\/span><\/p>\r\n<p><span style=\"color: #000000;\">La IA, aunque omnipresente, no es infalible ni perfecta. Los sesgos de g\u00e9nero, as\u00ed como los raciales, han sido una preocupaci\u00f3n constante para organismos como las Naciones Unidas y la Uni\u00f3n Europea, que trabajan para prevenir las consecuencias negativas de estos sesgos para la ciudadan\u00eda, especialmente para las mujeres y grupos vulnerables.<\/span><\/p>\r\n<p><span style=\"color: #000000;\">La ONU tambi\u00e9n a alertado sobre la exclusi\u00f3n de las mujeres en el desarrollo de la IA, se\u00f1alando la escasez de mujeres programadoras, la persistencia de sesgos de g\u00e9nero en los datos y una perspectiva de neutralidad cient\u00edfica que no cuestiona estos sesgos. Frente a estos retos, se est\u00e1 desarrollando una \u00abl\u00ednea de justicia algor\u00edtmica\u00bb para crear algoritmos que mitiguen los patrones de discriminaci\u00f3n en los datos.\u00a0<\/span><\/p>\r\n<p><span style=\"color: #000000;\">Se est\u00e1n realizando esfuerzos regulatorios y se implementan mecanismos para corregir errores y sesgos en la IA, pero surge la pregunta: \u00bfPuede la inteligencia artificial ser una aliada en la b\u00fasqueda de la igualdad de g\u00e9nero? \u00bfEs posible desarrollar algoritmos feministas?<\/span><\/p>\r\n<p><span style=\"color: #000000;\">Estos avances representan pasos significativos hacia la integraci\u00f3n de la equidad de g\u00e9nero en la inteligencia artificial, aunque a\u00fan queda mucho por hacer para que la perspectiva de g\u00e9nero sea una parte integral del desarrollo tecnol\u00f3gico.<\/span><br \/><br \/><\/p>\r\n","protected":false},"excerpt":{"rendered":"<p>Los algoritmos de inteligencia artificial (IA) est\u00e1n impregnados de sesgos de g\u00e9nero que afectan negativamente a las mujeres en el \u00e1mbito laboral y econ\u00f3mico. En el a\u00f1o 2021, se observ\u00f3 que el 80% de los reci\u00e9n graduados en doctorados relacionados con la IA eran hombres, evidenciando una clara desigualdad de g\u00e9nero en este campo. A [&hellip;]<\/p>\n","protected":false},"author":7,"featured_media":3193,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3190","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categoria"],"jetpack_featured_media_url":"https:\/\/igualdadenlaempresaaragon.es\/wp-content\/uploads\/2024\/02\/imagen-ia.jpg","jetpack_sharing_enabled":true,"post_mailing_queue_ids":[],"_links":{"self":[{"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/posts\/3190","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3190"}],"version-history":[{"count":3,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/posts\/3190\/revisions"}],"predecessor-version":[{"id":3195,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/posts\/3190\/revisions\/3195"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=\/wp\/v2\/media\/3193"}],"wp:attachment":[{"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3190"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3190"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/igualdadenlaempresaaragon.es\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3190"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}