В программном заявлении основатели центра утверждают: "Многие ученые обеспокоены тем, что в результате развития человеческих технологий скоро возникнут новые риски, ставящие под вопрос существование нашего вида в целом". В качестве подобных опасностей в центре выделяют искусственный интеллект, климатические изменения, биотехнологии и нанотехнологии.
Глава создаваемого центра профессор философии Хью Прайс опубликовал в августе 2012 года статью "ИИ: сможем ли мы удержать его в коробке?", в которой призвал серьезно рассмотреть возможные угрозы: "Мы думаем, что в качестве первого правильного шага стоило бы прекратить относиться к искусственному интеллекту как к предмету научной фантастики и начать думать о нем как о части реальности, с которой мы или наши потомки могут рано или поздно столкнуться". Философ считает, что как только мы поставим такую проблему, то будет необходимо инициировать серьезные исследования того, как сделать разработку интеллектуальных машин наиболее безопасной с точки зрения будущего человечества.
Основной причиной опасности «ультра-умных» машин создатели проекта видят принципиальное отличие их предполагаемого интеллекта от человеческого. Все ценности – такие, как «любовь, счастье и даже выживание», важны для нас, потому что у нас есть определенная эволюционная история – нет ни одной причины полагать, что машины будут разделять их с нами. По словам Прайса, машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия.
Скорое создание интеллектуальных машин, которые будут "умнее" человека, предрекают, начиная с середины XX века. Аллен Ньюэлл и Герберт Саймон в 50-е, Марвин Минский в 60-70-е, и многие другие в более позднее время предсказывали решение проблемы разработки ИИ в течение 10-20 лет, начиная с момента заявления. Один из наиболее известных на сегодняшний момент футурологов Рэй Курцвейл предсказывает, что к 2029 году компьютер сможет пройти тест Тьюринга, что, по его мнению, будет доказывать у него наличия разума. Курцвейл в 2009 году основал Университет Сингулярности с целью изучении последствий "технологической сингулярности" - момента, когда скорость развития технологий достигнет немыслимых значений.
Безусловно, искусственный интеллект и гипотетические последствия его выхода из-под контроля человека являются одной из любимых тем современной философии. Однако большинство действующих исследователей в этой области на данный момент воздерживаются от каких-либо громких прогнозов о возможности серьезных прорывов в ближайшем будущем - проблемы сегодня скорее заключаются не в необходимых мощностях, а в отсутствии новых подходов.