Машинное обучение помогло ученым понять, как мозг генерирует сложные человеческие характеристики, выявив закономерности мозговой активности, связанные с такими действиями, как рабочая память, такими чертами, как импульсивность, и такими состояниями, как депрессия. Ученые могут использовать эти методы для разработки моделей этих отношений, которые затем можно использовать для прогнозирования поведения и здоровья людей.

Однако это работает только в том случае, если модели представляют все возможные варианты, а но исследования показали, что это не так. Для каждой модели есть определенные личности, которые просто не создать. Исследователи из Йельского университета проанализировали, у кого эти модели склонны к сбою, почему это происходит и что можно сделать, чтобы это исправить, в исследовании, которое недавно было опубликовано в журнале Nature.

По словам ведущего автора исследования, доктора медицинских наук, студентки Йельской школы медицины Эбигейл Грин, модели должны быть применимы к любому конкретному человеку, чтобы быть максимально полезными.

Грин и ее коллеги рассматривают два подхода, которые, по их мнению, могут помочь моделям обеспечить более точную психиатрическую категоризацию. Во-первых, путем более точной классификации популяций пациентов. Например, диагноз шизофрении охватывает широкий спектр симптомов и может сильно варьироваться от человека к человеку. Исследователи могут более точно классифицировать людей, если они будут лучше знать нейронные основы шизофрении, включая ее симптомы и подтипы.

Во-вторых, некоторые характеристики, такие как импульсивность, характерны для самых разных состояний. Понимание нейронной основы импульсивности может помочь врачам более эффективно бороться с этим симптомом, независимо от медицинского диагноза. И оба этих подхода повлияют на реакцию на лечение. Но сначала модели должны быть общедоступными, сказала она.

Чтобы понять, почему модель не работает, Грин и ее коллеги сначала обучили модели, которые могли использовать закономерности мозговой активности, чтобы предсказать, насколько хорошо человек наберет баллы в различных когнитивных тестах. При тестировании модели правильно предсказывали, насколько хорошо справится большинство людей. Но для некоторых людей они были неверны, ошибочно предсказывая, что люди получат плохие оценки, хотя на самом деле они набрали хорошие, и наоборот. 

Ученые обнаружили постоянство — одних и тех же людей неправильно классифицировали по задачам и анализам. И люди, неправильно классифицированные в одном наборе данных, имели что-то общее с теми, кто был неправильно классифицирован в другом наборе данных. Так что в неправильной классификации действительно было что-то значимое.

Затем они попытались выяснить, можно ли объяснить подобные ошибочные классификации различиями в мозге этих людей. Но устойчивых различий не было. Вместо этого они обнаружили, что неправильная классификация была связана с социально-демографическими факторами, такими как возраст и образование, и клиническими факторами, такими как тяжесть симптомов.

В конечном итоге они пришли к выводу, что модели отражают не только когнитивные способности. Вместо этого они отражали более сложные "профили" — своего рода коллажи когнитивных способностей и различных социально-демографических и клинических факторов, объяснила Грин.

Авторы исследования дают несколько рекомендаций, как смягчить проблему. Они предполагают, что на этапе разработки исследования ученые должны использовать стратегии, которые минимизируют систематическую ошибку и максимизируют достоверность измерений, которые они используют. И после того, как исследователи соберут данные, они должны как можно чаще использовать статистические подходы, корректирующие оставшиеся стереотипные профили.

Принятие этих мер приведет к созданию моделей, которые лучше отражают изучаемый когнитивный конструкт, говорят исследователи. Но они отмечают, что полное устранение предвзятости маловероятно, поэтому это следует учитывать при интерпретации результатов модели. Кроме того, для некоторых измерений может оказаться, что необходимо несколько моделей.