Расследование, проведенное The Wall Street Journal, выявило, что система помощи водителю Tesla Autopilot может быть причиной смертельных аварий из-за ошибок в алгоритмах. Журналисты издания получили доступ к необработанным данным автопилота с помощью хакеров, которые извлекли компьютеры с функцией FSD из разбитых автомобилей Tesla. Эти данные, вместе с видеозаписями и официальными отчетами, помогли восстановить обстоятельства 222 инцидентов с участием Tesla.
Из них в 44 случаях машины неожиданно меняли траекторию, а в 31 случае не остановились или не уступили дорогу, что часто приводило к серьезным авариям. Одним из самых обсуждаемых инцидентов стало столкновение с перевернутым прицепом, который автопилот не распознал как препятствие, и машина Tesla врезалась в него на высокой скорости. Также были случаи, когда во время тест-драйва система FSD неправильно сработала, из-за чего автомобиль пересек сплошную линию разметки и едва не спровоцировал аварию на перекрестке. Выяснилось также, что система FSD слабо распознает аварийные сигналы, что иногда приводит к столкновениям.
The Wall Street Journal указал на проблемы в автопилоте как аппаратного, так и программного характера, включая медленное обновление алгоритмов и недостаточную калибровку камер. Пока неизвестно, достаточно ли этих фактов, чтобы опровергнуть утверждение Илона Маска о том, что система Tesla всё равно безопаснее, чем водитель-человек.