Categories: Без рубрики

ChatGPT демонстрирует географические предубеждения в вопросах экологической справедливости: отчет

Технологический институт Вирджинии (США) опубликовал отчет, в котором излагаются потенциальные предубеждения в инструменте искусственного интеллекта (ИИ) ChatGPT, предполагая различия в его результатах по вопросам экологической справедливости в разных округах.

В недавнем отчете исследователи из Технологического института Вирджинии заявили, что ChatGPT имеет ограничения в предоставлении конкретной информации по вопросам экологической справедливости.

Однако исследование выявило тенденцию, указывающую на то, что информация стала более доступной для более крупных и густонаселенных штатов.

«В штатах с большим городским населением, таких как Делавэр или Калифорния, менее 1 процента населения проживало в округах, которые не могут получить конкретную информацию».

Между тем, регионы с меньшим населением не имели аналогичного доступа.

«В сельских штатах, таких как Айдахо и Нью-Гэмпшир, более 90 процентов населения проживало в округах, которые не могли получать информацию, специфичную для местного населения», — говорится в отчете.

Далее он процитировал лектора по имени Ким с географического факультета Технологического института Вирджинии, который призвал к необходимости дальнейших исследований, поскольку обнаруживаются предрассудки.

«Хотя необходимы дополнительные исследования, наши результаты показывают, что в настоящее время в модели ChatGPT существуют географические предубеждения», — заявил Ким.

В исследовательский документ также включена карта, иллюстрирующая степень населения США, не имеющего доступа к конкретной информации по вопросам экологической справедливости.

Карта США, показывающая территории, где жители могут просматривать (синий) или не могут просматривать (красный) местную информацию по вопросам экологической справедливости. Источник: Технологический институт Вирджинии.

Связанный: ChatGPT впервые сдал экзамен по неврологии

Это следует из недавних новостей о том, что ученые обнаруживают потенциальную политическую предвзятость, проявленную ChatGPT в последнее время.

25 августа сообщил, что исследователи из Великобритании и Бразилии опубликовали исследование, в котором заявили, что большие языковые модели (LLM), такие как выходной текст ChatGPT, содержат ошибки и предвзятости, которые могут ввести читателей в заблуждение и имеют возможность продвигать политические предубеждения, представленные традиционными СМИ. .

Журнал: Deepfake K-Pop порно, разбудил Грока, «У OpenAI проблема», Fetch.AI: AI Eye

Recent Posts

Биткоин вырос на 3,5%, поскольку данные из США показывают, что потребительские цены в апреле замедлили рост

Цена биткойна выросла после того, как данные из США показали, что инфляция в апреле была…

Теперь вы можете инвестировать в биткойн-фонд и получать доход — в странах Северной Европы

Канадская финансово-технологическая компания DeFi Technologies объявила во вторник, что ее дочерняя компания Valour запустила то,…

Флоки Ину возглавляет стаю, когда мем-монеты участвуют в ралли ревущих котят

Цена Floki Inu выросла на 17% за последние 24 часа, поскольку монеты-мемы продолжают расти после…

Биткойн и Эфириум стабилизировались в преддверии отчета о потребительских ценах в США

Биткойн и Эфириум, две крупнейшие криптовалюты по рыночной капитализации, стабильно работали в преддверии очередного отчета…

Polymarket привлек $70 млн при поддержке фонда Виталика Бутерина и Питера Тиля

Сайт ставок на основе блокчейна Polymarket объявил во вторник, что привлек $70 млн в двух…

Цена монеты GameStop Tribute Meme на Солане достигла рекордно высокой цены

Ажиотаж вокруг акций мемов только усилился в одночасье: акции GameStop (GME) открыли день по цене,…