- Katılım
- 17 Şub 2007
- Mesajlar
- 678
- Tepkime puanı
- 1,026
- Puanları
- 93
Face Hunting
Hackers are not asleep. They are inventing more and more new ways that will allow them to deceive facial recognition systems. Thanks to modern technologies, they can now not only work the old-fashioned way, cutting holes instead of eyes in photos, but also create a completely realistic "portrait nod" with the help of artificial intelligence.
According to the ID.me thousands of people have used similar masks and mannequins to try to circumvent the face identification system.
Facial recognition systems, which are advertised as a fast and reliable way to identify everyone and everyone, are under the scrutiny of scammers. For many years, researchers have warned about the vulnerabilities of these technologies, but recent illegal schemes of their use have confirmed their fears and highlighted the difficult but much-needed task of improving them.
According to the company ID.me Inc., which specializes in identity verification, in 2020, thousands of people in the United States tried to circumvent identity verification by face in order to fraudulently claim unemployment benefits from state recruitment agencies. Between June 2020 and January 2021, more than 80,000 attempts were detected in 26 US states to deceive the stage in which you need to provide your selfie for matching identity cards. This includes people wearing special masks, using deepfakes - realistic images created with the help of artificial intelligence - or showing images or videos of other people, " says the CEO ID.me Blake Hall.
According to the ID.me, thousands of people have used masks and mannequins to try to cheat identity verification by face.
Face recognition for individual identification has become one of the most widely used artificial intelligence applications, allowing people to make payments through their phones, successfully pass any checks and confirm their identity. For example, Uber Technologies Inc. drivers must regularly confirm that they are licensed account holders by taking selfies with their phones and uploading them to a program that uses Microsoft Corp.'s facial recognition system. to authenticate them. Uber did this because it encountered drivers hacking into its system to share their accounts.
Amazon.com Inc. and smaller vendors such as Idemia Group S. A. S., Thales Group and AnyVision Interactive Technologies Ltd. sell facial recognition systems for identification. The technology works by matching a face to create a so-called face print. Identifying individuals is usually more accurate than identifying faces in a crowd.
However, according to the researchers, this form of biometric identification has its limitations.
Why criminals cheat facial Recognition systems
Analysts at the credit company Experian PLC said in one of their security reports that they expect that fraudsters will increasingly create "Frankenstein faces", using artificial intelligence to combine facial features of different people to form a new identity in order to deceive the facial identification system.
Face recognition identification works by matching a face to create a so-called face fingerprint.
Analysts said the strategy is part of a fast-growing type of financial crime known as artificial identity fraud, where fraudsters use the combination of real and fake information to create a new identity.
Until recently, some activists opposed facial recognition systems. For example, privacy campaigners in the UK have applied an asymmetric make-up specially designed to confuse CCTV cameras with a facial recognition system while walking around the city.
According to Alexey Polyakov, General Director Adversa.ai, a firm engaged in research on security and artificial intelligence, criminals have a number of reasons for hacking the facial recognition system: from gaining access to digital wallets on other people's phones to successfully gaining access to places with a high degree of protection (hotels, business centers or hospitals). According to him, any access control system that has replaced security guards with people with cameras with a facial recognition system is potentially at risk. He also added that he was personally able to confuse the facial recognition software, which took him for a completely different person, and he just put on sunglasses and used patches on his face.
A growing threat
The idea to deceive these automated systems arose several years ago. In 2017, a male client of the Lemonade insurance company tried to trick its artificial intelligence by wearing a blonde wig, applying lipstick and uploading a video saying that his $ 5,000 camera was stolen. Lemonade artificial intelligence systems, which analyze such videos for signs of fraud, marked the video as suspicious and found that the person was trying to create a fake identity. The company said in a blog post that he had previously filed a successful claim for damages under his usual guise. Lemonade, which says on its website that it uses facial recognition to mark applications submitted by one person under different names, declined to comment.
Earlier this year, the Chinese prosecutor's office accused two people of stealing more than $ 77 million by creating a fictitious shell company to sell leather bags and send fake tax bills to their alleged clients. According to prosecutors quoted in a March report by the Xinhua Daily Telegraph, the pair sent standard-issue invoices, deceiving the local state tax administration's facial recognition system, which was created to track payments and combat tax evasion. The prosecutor's office reported in the Chinese WeChat chat that the attackers hacked the local government facial recognition service using videos they shot. The Shanghai Prosecutor's Office could not be reached for comment.
The report says that the attackers bought high-resolution photos of the faces on the black online market, and then used the application to create videos from the photos so that they looked as if the faces were nodding, blinking and opening their mouths.
The members of this duo, with the surnames Wu and Zhou, used a special mobile phone that turned off the front camera and uploaded the processed videos when he had to take a video selfie for the Shanghai tax system, which uses facial recognition to certify tax returns, the report says. According to the prosecutor's office, Wu and Zhou have been fishing in this way since 2018.
According to John Spencer, director of strategy at Veridium LLC, a biometric identification company, complex software is not always required to fake a facial recognition system. According to him, one of the most common ways to deceive the face identification system is to print out a photo of someone's face and cut out the eyes, using the photo as a mask. Many facial recognition systems, such as those used by financial trading platforms, check whether a video shows a live person by examining his blinking or moving eyes.
According to Spencer, in most cases, his team could use this and other tactics to test the limits of facial recognition systems, sometimes folding a paper "face" to give it a deeper perception. "Within an hour, I can break almost all of these systems," he says.
According to scientists, Apple Inc. ' s Face ID, which was launched in 2017 along with the iPhone X, is one of the most difficult to crack. Its camera projects more than 30,000 invisible points to create a depth map of a person's face, which it then analyzes and also makes an infrared image of the face. Using the iPhone's chip, it then converts this image into a mathematical representation, which it compares with its own database of the user's face, according to Apple's website. An Apple representative said that the company's website states that for privacy reasons, Face ID data never leaves the iPhone.
According to Spencer, some banks and financial companies use third-party face identification services, rather than Apple's Face ID system, to register customers in their iPhone applications. This is potentially a less scrupulous check. "You end up looking at ordinary cameras on a mobile phone," he says. "There is no infrared port, no point projectors."
Many online banks ask users to upload video selfies along with photos of their driver's license or passports, and then use third-party facial recognition software to match the video with an identity card. According to Spencer, images sometimes get to reviewers if the system notes something wrong.
In search of a solution
Alexey Polyakov regularly tests the security of facial recognition systems for his clients and says that there are two ways to protect such systems from fraud. One of them is to update the basic models of artificial intelligence to guard against new attacks by changing the algorithms underlying them. Another is to train the models with as many examples of altered faces as possible that can mislead them, known as adversarial examples.
Unfortunately, it can take up to 10 times more images to train a facial recognition model - an expensive and time-consuming process. According to Alexey Polyakov, for each person, you need to add an image of him in glasses, a hat, and the like, so that the system can learn and remember all possible combinations.
Hackers are not asleep. They are inventing more and more new ways that will allow them to deceive facial recognition systems. Thanks to modern technologies, they can now not only work the old-fashioned way, cutting holes instead of eyes in photos, but also create a completely realistic "portrait nod" with the help of artificial intelligence.
According to the ID.me thousands of people have used similar masks and mannequins to try to circumvent the face identification system.
Facial recognition systems, which are advertised as a fast and reliable way to identify everyone and everyone, are under the scrutiny of scammers. For many years, researchers have warned about the vulnerabilities of these technologies, but recent illegal schemes of their use have confirmed their fears and highlighted the difficult but much-needed task of improving them.
According to the company ID.me Inc., which specializes in identity verification, in 2020, thousands of people in the United States tried to circumvent identity verification by face in order to fraudulently claim unemployment benefits from state recruitment agencies. Between June 2020 and January 2021, more than 80,000 attempts were detected in 26 US states to deceive the stage in which you need to provide your selfie for matching identity cards. This includes people wearing special masks, using deepfakes - realistic images created with the help of artificial intelligence - or showing images or videos of other people, " says the CEO ID.me Blake Hall.
According to the ID.me, thousands of people have used masks and mannequins to try to cheat identity verification by face.
Face recognition for individual identification has become one of the most widely used artificial intelligence applications, allowing people to make payments through their phones, successfully pass any checks and confirm their identity. For example, Uber Technologies Inc. drivers must regularly confirm that they are licensed account holders by taking selfies with their phones and uploading them to a program that uses Microsoft Corp.'s facial recognition system. to authenticate them. Uber did this because it encountered drivers hacking into its system to share their accounts.
Amazon.com Inc. and smaller vendors such as Idemia Group S. A. S., Thales Group and AnyVision Interactive Technologies Ltd. sell facial recognition systems for identification. The technology works by matching a face to create a so-called face print. Identifying individuals is usually more accurate than identifying faces in a crowd.
However, according to the researchers, this form of biometric identification has its limitations.
Why criminals cheat facial Recognition systems
Analysts at the credit company Experian PLC said in one of their security reports that they expect that fraudsters will increasingly create "Frankenstein faces", using artificial intelligence to combine facial features of different people to form a new identity in order to deceive the facial identification system.
Face recognition identification works by matching a face to create a so-called face fingerprint.
Analysts said the strategy is part of a fast-growing type of financial crime known as artificial identity fraud, where fraudsters use the combination of real and fake information to create a new identity.
Until recently, some activists opposed facial recognition systems. For example, privacy campaigners in the UK have applied an asymmetric make-up specially designed to confuse CCTV cameras with a facial recognition system while walking around the city.
According to Alexey Polyakov, General Director Adversa.ai, a firm engaged in research on security and artificial intelligence, criminals have a number of reasons for hacking the facial recognition system: from gaining access to digital wallets on other people's phones to successfully gaining access to places with a high degree of protection (hotels, business centers or hospitals). According to him, any access control system that has replaced security guards with people with cameras with a facial recognition system is potentially at risk. He also added that he was personally able to confuse the facial recognition software, which took him for a completely different person, and he just put on sunglasses and used patches on his face.
A growing threat
The idea to deceive these automated systems arose several years ago. In 2017, a male client of the Lemonade insurance company tried to trick its artificial intelligence by wearing a blonde wig, applying lipstick and uploading a video saying that his $ 5,000 camera was stolen. Lemonade artificial intelligence systems, which analyze such videos for signs of fraud, marked the video as suspicious and found that the person was trying to create a fake identity. The company said in a blog post that he had previously filed a successful claim for damages under his usual guise. Lemonade, which says on its website that it uses facial recognition to mark applications submitted by one person under different names, declined to comment.
Earlier this year, the Chinese prosecutor's office accused two people of stealing more than $ 77 million by creating a fictitious shell company to sell leather bags and send fake tax bills to their alleged clients. According to prosecutors quoted in a March report by the Xinhua Daily Telegraph, the pair sent standard-issue invoices, deceiving the local state tax administration's facial recognition system, which was created to track payments and combat tax evasion. The prosecutor's office reported in the Chinese WeChat chat that the attackers hacked the local government facial recognition service using videos they shot. The Shanghai Prosecutor's Office could not be reached for comment.
The report says that the attackers bought high-resolution photos of the faces on the black online market, and then used the application to create videos from the photos so that they looked as if the faces were nodding, blinking and opening their mouths.
The members of this duo, with the surnames Wu and Zhou, used a special mobile phone that turned off the front camera and uploaded the processed videos when he had to take a video selfie for the Shanghai tax system, which uses facial recognition to certify tax returns, the report says. According to the prosecutor's office, Wu and Zhou have been fishing in this way since 2018.
According to John Spencer, director of strategy at Veridium LLC, a biometric identification company, complex software is not always required to fake a facial recognition system. According to him, one of the most common ways to deceive the face identification system is to print out a photo of someone's face and cut out the eyes, using the photo as a mask. Many facial recognition systems, such as those used by financial trading platforms, check whether a video shows a live person by examining his blinking or moving eyes.
According to Spencer, in most cases, his team could use this and other tactics to test the limits of facial recognition systems, sometimes folding a paper "face" to give it a deeper perception. "Within an hour, I can break almost all of these systems," he says.
According to scientists, Apple Inc. ' s Face ID, which was launched in 2017 along with the iPhone X, is one of the most difficult to crack. Its camera projects more than 30,000 invisible points to create a depth map of a person's face, which it then analyzes and also makes an infrared image of the face. Using the iPhone's chip, it then converts this image into a mathematical representation, which it compares with its own database of the user's face, according to Apple's website. An Apple representative said that the company's website states that for privacy reasons, Face ID data never leaves the iPhone.
According to Spencer, some banks and financial companies use third-party face identification services, rather than Apple's Face ID system, to register customers in their iPhone applications. This is potentially a less scrupulous check. "You end up looking at ordinary cameras on a mobile phone," he says. "There is no infrared port, no point projectors."
Many online banks ask users to upload video selfies along with photos of their driver's license or passports, and then use third-party facial recognition software to match the video with an identity card. According to Spencer, images sometimes get to reviewers if the system notes something wrong.
In search of a solution
Alexey Polyakov regularly tests the security of facial recognition systems for his clients and says that there are two ways to protect such systems from fraud. One of them is to update the basic models of artificial intelligence to guard against new attacks by changing the algorithms underlying them. Another is to train the models with as many examples of altered faces as possible that can mislead them, known as adversarial examples.
Unfortunately, it can take up to 10 times more images to train a facial recognition model - an expensive and time-consuming process. According to Alexey Polyakov, for each person, you need to add an image of him in glasses, a hat, and the like, so that the system can learn and remember all possible combinations.
Original message
Охота на лица
Хакеры не дремлют. Они изобретают все новые и новые способы, которые позволят им обмануть системы распознавания лиц. Благодаря современным технологиям теперь они не только могут работать по старинке, вырезая дырки вместо глаз на фотографиях, но так же создавать вполне реалистичный "портретный кивок" с помощью искусственного интеллекта.По данным ID.me, тысячи людей использовали подобные маски и манекены, чтобы попытаться обойти систему идентификации личности по лицу.
Системы распознавания лиц, которые рекламируют как быстрый и надежный способ идентификации всех и каждого, находятся под пристальным вниманием мошенников. В течение многих лет исследователи предупреждали об уязвимостях данных технологий, но недавние незаконные схемы их использования подтвердили их опасения и подчеркнули сложную, но столь необходимую задачу по их улучшению.
По данным фирмы ID.me Inc., которая специализируется на проверке личности, в 2020 году тысячи людей в США пытались обойти проверку личности по лицу, чтобы обманным путем требовать пособия по безработице от государственных кадровых агентств. В период с июня 2020 года по январь 2021 года в 26 штатах США было обнаружено более 80 000 попыток обмануть этап, в котором необходимо предоставить свое селфи для сопоставления удостоверений личности. Сюда входят люди, носящие специальные маски, использующие дипфейки - реалистичные изображения, созданные с помощью искусственного интеллекта, - или показывающие изображения или видео других людей, - говорит генеральный директор ID.me Блейк Холл.
По данным ID.me, тысячи людей использовали подобные маски и манекены, чтобы попытаться обмануть проверку личности по лицу.
Фото: Id.me
Распознавание лиц для индивидуальной идентификации стало одним из наиболее широко используемых приложений искусственного интеллекта, позволяя людям совершать платежи через свои телефоны, успешно проходить любые проверки и подтверждение своей личности. Например, водители Uber Technologies Inc. должны регулярно подтверждать, что они являются лицензированными владельцами учетных записей, делая селфи с помощью своих телефонов и загружая их в программу, которая использует систему распознавания лиц Microsoft Corp. для их аутентификации. Компания Uber сделала это, потому что столкнулась с водителями, взламывающими ее систему, чтобы поделиться своими учетными записями.
Amazon.com Inc. и более мелкие поставщики, такие как Idemia Group S.A.S., Thales Group и AnyVision Interactive Technologies Ltd., продают системы распознавания лиц для идентификации. Технология работает путем сопоставления лица для создания так называемого отпечатка лица. Идентификация отдельных людей обычно более точна, чем определение лиц в толпе.
Тем не менее, по мнению исследователей, у этой формы биометрической идентификации есть свои ограничения.
Почему преступники обманывают системы распознавание лиц
Аналитики кредитной компании Experian PLC заявили в одном из своих отчетов по безопасности, что они ожидают, что мошенники все чаще будут создавать «лица Франкенштейна», используя искусственный интеллект для объединения черт лица разных людей, чтобы сформировать новую личность с целью обмана системы идентификации лиц.Идентификация по распознаванию лица работает путем сопоставления лица для создания так называемого отпечатка лица.
Фото: JAMIE CHUNG FOR THE WALL STREET JOURNAL
Аналитики заявили, что эта стратегия является частью быстрорастущего типа финансовых преступлений, известных как искусственное мошенничество с идентификационными данными, когда мошенники используют объединение реальной и поддельной информации для создания новой личности.
До недавнего времени некоторые активисты выступали против систем распознавания лиц. Например, участники кампании по защите конфиденциальности в Великобритании нанесли асимметричный макияж, специально разработанный для того, чтобы запутать во время прогулки по городу камеры видеонаблюдения с системой распознавания лиц.
По словам Алексея Полякова, генерального директора Adversa.ai, фирмы занимающейся исследованиями безопасноти искусственного интеллекта, у преступников есть целый ряд причин для взлома системы распознавания лиц: от получения доступа к цифровым кошелькам на чужих телефонах до успешного получения доступа к местам с повышенной степенью защиты (в отели, бизнес-центры или больницы). По его словам, любая система контроля доступа, которая заменила охранников на людей с камерами с системой распознавания лиц, потенциально подвержена риску. Он также добавил, что лично смог запутать программное обеспечение для распознавания лиц, которое приняло его за совершенно другого человека, а он просто надел солнцезащитные очки и использовал пластыри на своем лице.
Растущая угроза
Идея обмануть эти автоматизированные системы возникла несколько лет назад. В 2017 году мужчина-клиент страховой компании Lemonade попытался обмануть ее искусственный интеллект, надев светлый парик, нанесся помаду и загрузив видео, в котором говорилось, что его камера за 5000 долларов была украдена. Системы искусственного интеллекта Lemonade, которые анализируют такие видео на наличие признаков мошенничества, отметили видео как подозрительное и обнаружили, что человек пытался создать поддельную личность. Компания сообщила в своем блоге, что ранее он подал успешный иск на возмещение ущерба под своим обычным видом. Компания Lemonade, которая на своем веб-сайте сообщает, что использует распознавание лиц для пометки заявлений, поданных одним и тем же человеком под разными именами, отказалась от комментариев.Ранее в этом году прокуратура Китая обвинила двух людей в краже более 77 миллионов долларов путем создания фиктивной подставной компании для продажи кожаных сумок и отправки поддельных налоговых счетов своим предполагаемым клиентам. По словам прокуроров, цитируемых в мартовском отчете Xinhua Daily Telegraph, пара отправляла счета-фактуры стандартного образца, обманывая систему распознавания лиц местного государственного налогового управления, которая была создана для отслеживания платежей и борьбы с уклонением от уплаты налогов. Прокуратура сообщила в китайском чате WeChat, что злоумышленники взломали местную правительственную службу распознавания лиц с помощью снятых ими видеороликов. Связаться с прокуратурой Шанхая для получения комментариев не удалось.
В отчете говорится, что злоумышленники купили фотографии лиц в высоком разрешении на черном онлайн-рынке, а затем использовала приложение для создания видео из фотографий, чтобы они выглядели так, как будто лица кивали, моргали и открывали рты.
Участники этого дуэта с фамилиями Ву и Чжоу, использовали специальный мобильный телефон, который отключал фронтальную камеру и загружал обработанные видео, когда он должен был делать видео-селфи для налоговой системы Шанхая, которая использует распознавание лиц для того, чтобы заверять налоговые декларации, говорится в отчете. По словам прокуратуры, Ву и Чжоу промышляли таким образом с 2018 года.
По словам Джона Спенсера, директора по стратегии компании Veridium LLC, занимающейся биометрической идентификацией, для подделки системы распознавания лиц не всегда требуется сложное программное обеспечение. По его словам, один из наиболее распространенных способов обмануть систему идентификации по лицу - это распечатать фотографию чьего-то лица и вырезать глаза, используя фотографию в качестве маски. Многие системы распознавания лиц, например те, которые используются платформами финансовой торговли, проверяют, показывает ли видео живого человека, исследуя его моргающие или движущиеся глаза.
По словам Спенсера, в большинстве случаев его команда могла использовать эту и другие тактики, чтобы проверить пределы систем распознавания лиц, иногда складывая бумажное «лицо», чтобы придать ему более глубокое восприятие. «В течение часа я могу сломать почти все эти системы», - говорит он.
По мнению ученых, Face ID от Apple Inc., который был запущен в 2017 году вместе с iPhone X, является одним из самых сложных для взлома. Его камера проецирует более 30 000 невидимых точек для создания карты глубины лица человека, которую затем анализирует, а также делает инфракрасное изображение лица. Используя чип iPhone, он затем преобразует это изображение в математическое представление, которое сравнивает со своей собственной базой данных о лице пользователя, согласно веб-сайту Apple. Представитель Apple заявил, что на веб-сайте компании указано, что из соображений конфиденциальности данные Face ID никогда не покидают iPhone.
По словам Спенсера, некоторые банки и финансовые компании используют сторонние сервисы идентификации лиц, а не систему Face ID от Apple, для регистрации клиентов в своих приложениях для iPhone. Это потенциально менее скрупулезная проверка. «В конечном итоге вы смотрите на обычные камеры на мобильном телефоне, - говорит он. - Нет ни инфракрасного порта, ни точечных проекторов».
Многие онлайн-банки просят пользователей загружать видео-селфи вместе с фотографиями их водительских прав или паспортов, а затем используют стороннее программное обеспечение для распознавания лиц, чтобы сопоставить видео с удостоверением личности. По словам Спенсера, изображения иногда попадают к рецензентам, если система отмечает что-то не так.
В поисках решения
Алексей Поляков регулярно тестирует безопасность систем распознавания лиц для своих клиентов и говорит, что есть два способа защитить такие системы от обмана. Один из них - обновить базовые модели искусственного интеллекта, чтобы остерегаться новых атак, изменив алгоритмы, лежащие в их основе. Другой - обучить модели с помощью как можно большего количества примеров измененных лиц, которые могут ввести их в заблуждение, известных как состязательные примеры.К сожалению, для обучения модели распознавания лиц может потребоваться в 10 раз больше изображений - дорогостоящий и трудоемкий процесс. По словам Алексея Полякова для каждого человека нужно добавить его изображение в очках, шляпе и тому подобное, чтобы система могла узнать и запомнить все возможные комбинации.
Такие компании, как Google, Facebook и Apple, постоянно работают над поиском способов предотвращения взломов систем искусственного интеллекта по распознаванию лиц. Facebook, например, заявил в июне 2021 года, что выпускает новый инструмент для обнаружения дипфейков.
По словам Блейка Холла из ID.me, к февралю 2021 года его компания смогла остановить почти все попытки мошенничества с селфи на правительственных сайтах. Он утверждает, что компания стала лучше обнаруживать определенные маски, маркируя изображения как мошеннические, а также отслеживая устройство, IP-адреса и номера телефонов мошенников, которые повторяются по нескольким поддельным учетным записям. Теперь он также проверяет, как свет смартфона отражается и взаимодействует с кожей человека или другим материалом.
Источники: wsj.com, habr.com, ITSOFT
Moderatör tarafında düzenlendi: