인공 지능으로 플라스틱을 더 잘 재활용하십시오
Ecosnap은 간단한 사진에서 항목을 재활용하는 방법과 위치를 알려줍니다. 우리는 Ben 's Bites AI Hackathon을 위해 일주일 안에이 제품을 만들었습니다.
지금 시도해보십시오 - 로그인이 필요없이 무료입니다.
GitHub 스폰서를 통해이 프로젝트 (및 기타)를 지원할 수 있습니다! ❤️
Alyssa X & Leo가 제작했습니다. 우리가 이것을 어떻게 만들 었는지 자세히 알아보십시오.
? 플라스틱 코드의 사진을 스냅하거나 업로드하십시오
쉽게 액세스 할 수 있도록 휴대 전화에 PWA를 설치하십시오
? 처리 방법을 알기 위해 특정 항목을 검색하십시오.
♻️ AI를 사용하여 효과적으로 재활용하는 방법을 배우십시오
? 재활용 한 플라스틱 품목의 수를 추적하십시오
? 특정 조언을 위해 위치를 변경하십시오
... 그리고 앞으로 더 많은 것 - 모두 무료로 그리고 사인을 필요로하지 않습니다!
여기를 클릭하여 직접 Vercel에 배포 할 수 있습니다.
중요 : .env 파일에서 next_public_model_url의 환경 변수를 업데이트하고 model.json을 호스팅하는 절대 URL로 설정하십시오 (JSON과 함께 다른 샤드 빈 파일을 포함시켜야합니다).
이 모델은 7 개의 다른 수지 코드의 이미지 예제에 대해 교육을 받았으며, 이에 대한 데이터는 ml/seven_plastics 에서 찾을 수 있습니다. 다음 Kaggle 데이터 세트와 저자와 기고자가 수집 한 이미지의 조합입니다.
최종 모델은 Tensorflow의 효율적인 넷 구현을 사용하여 교육을 받았으며, 모델 가중치는 전송 학습을 위해 동결되었으므로 모델은 수지 코드를 더 빨리 배울 수있었습니다! 이 모델은 더 빠른 교육을 위해 GPU 기반 기계에서 Python 에서 교육을 받았습니다! ml/train.py 에서 교육 스크립트를 찾아 직접 시도해 볼 수 있습니다. 여기에서 최종 모델에 도착하기 전에 다른 메타 아키텍처와 매개 변수가 실험되었음을 알 수 있습니다.
플라스틱 수지 코드를 예측하기 위해 모델은 실시간 결과를 위해 프론트 엔드 앱과 통합되어야했는데,이를 수행하려면 Tensorflow.js와 호환되는 방식으로 모델을 변환해야했습니다. 우리는 웹 작업자를 사용하여 클라이언트의 예측을 실행하는 동안 주 스레드가 차단되는 것을 방지했습니다.
이 앱은 이미지 텐서를 모델에 전달하여 각 플라스틱 수지 코드에 대한 확률을 제공하며, 가장 높은 확률을 가진 코드 는 사용자에게 표시됩니다.
특정 모델을 훈련시키는 것은 어렵고 모델은 항상 문제를 해결합니다. 따라서 그렇다면, 우리는 사용자에게 올바른 코드가 무엇인지 알려주는 기회를 제공합니다! 이것은 여러 가지 방법으로 다음과 같습니다.
피드백 루프의 프론트 엔드를 구현하는 동안 복잡성과 비용이 추가되어 백엔드에 연결하지 않아서 앱이 매우 가볍고 클라이언트에 전적으로 실행되기를 원했습니다. 또한 이미지가 정확히 어떻게 사용되는지 사용자에게 명확하게 전달하고 옵트 인 또는 옵트 아웃 시스템을 설정하여 약간 번거로운 느낌을 받았습니다.
질문이나 피드백이 있으시면 [email protected], Alyssa 또는 Leo에게 직접 연락하십시오! 이것이 유용하다고 생각하십니까?